Vorrei cominciare il discorso con i motivi che mi

Vorrei cominciare il discorso con i motivi che mi hanno spinto ad affrontare un argomento di questo tipo per una tesina di maturità.
Innanzitutto l'informatica è una mia passione da veramente tanto tempo, e addirittura sarà presumibilmente la mia occupazione futura, visto che ho
intenzione di conseguire la laurea in Ingegneria Informatica al Politecnico di Milano. In secondo luogo ho riflettuto molto sulla possibilità di collegamenti che
l'argomento comporta, e sono davvero notevoli: dalla Storia alla Fisica, dalla Geologia addirittura all'Educazone Fisica. Naturalmente saranno un pò
penalizzate le materie di tipo umanistico, ma la possibilità di collegarsi ad argomenti attuali mi ha allettato a tal punto da affrontare con decisione
l'argomento. Per ultimo, ma non per questo il motivo meno importante, l'appartenenza ad un liceo scientifico: ho notato infatti che nelle maturità passate si
è tentato di evitare argomenti scientifici; io invece ho accettato il rischio e così è nata questa tesina. Spero che ne sia valsa la pena.
La Tecnologia
Cosa si intende per Tecnologia? Si sente così tanto parlare di "Nuove Tecnologie", "Tecnologie Innovative", "Soluzioni Tecnologiche", ma forse il
significato di questo termine viene a volte confuso.
Per "Tecnologia" si intende l'insieme delle procedure e dei metodi di applicazione delle conoscenze scientifiche alle attività produttive.
La tecnologia è quindi un campo estremamente vasto, caratterizzato da molteplici aspetti: consiste sia nel complesso di conoscenze e di studi teorici mirati
a risolvere problemi pratici, sia nella progettazione e nella realizzazione di prodotti di vario tipo quali vestiario, alimenti, manufatti, strutture, dispositivi
elettronici e sistemi informatici; in generale, quindi, contribuisce a realizzare il cosiddetto "mondo artificiale".
Il processo tecnologico nasce per soddisfare un'esigenza umana o per concretizzare un'aspirazione e a questo fine utilizza risorse di vario tipo, come
l'immaginazione, le conoscenze scientifiche e multidisciplinari, le competenze tecniche e gli strumenti.
Essendo una dinamica della società umana, anche la Tecnologia ha avuto una storia, che comincia addirittura nell'età della pietra per finire (!) ai giorni
nostri.
Tuttavia occorre fare una distinzione: fino alla fine dell'Settecento non si può parlare di un grande sviluppo della Tecnologia, dato che la produzione
industriale non era su larga scala, le industrie non erano quasi del tutto sviluppate e soprattutto non era ancora diffusa la mentalità capitalistica, ovvero, in
parole povere, la "voglia di rischiare del proprio denaro in un'attività". Cosa ha fatto scattare la molla?
La Rivoluzione Industriale
Il 1700 ha portato con sè la sua mentalità illuministica, e tra le sue tematiche vi era anche la fiducia quasi totale nella scienza e nella tecnica. E' stato
proprio in questo anno che si hanno avute le prime linee ferroviarie, lo sviluppo delle vie di comunicazione, le più importanti scoperte nel campo medico e
scientifico in generale. Tuttavia il grande sviluppo economico e tecnologico lo si avrà soltanto in quella che verrà definita "Seconda Fase della Rivoluzione
Industriale", periodo di tempo che va dal 1860 circa al 1920.
Gli elementi che caratterizzarono la Seconda Fase della Rivoluzione Industriale furono di vario tipo:
Le nuove scoperte scientifiche e le invenzioni;
L'introduzione nell'attività produttiva di nuove macchine;
L'introduzione e il massiccio uso di energie nuove: il petrolio e l'elettricità;
La nascita di nuove industrie;
La rivoluzione dei mezzi di trasporto;
L'organizzazione delle fabbriche.
Le nuove scoperte
Nonostante l'ambiente scientifico si era già mosso dallo stato di quiete che derivava ancora dal 1700 con l'invenzione della macchina a vapore, il vero
boom lo abbiamo negli ultimi trent'anni del 1800.
Nel 1879 Edison realizzò la prima lampadina a filamenti di carbone, Marconi riuscì per la prima volta al mondo a comunicare a distanza tramite il telefono,
Bell e Meucci inventarono il telefono nel 1874. Con queste invenzioni si mettevano le basi per lo sviluppo della tecnologia moderna.
Nel campo della chimica vi furono importanti scoperte e formulazioni di nuove teorie che permisero una crescita immediata della fiducia nelle industrie
chimiche: si introdussero nuove materie prime nella produzione di esplosivi, di saponi, dei coloranti artificiali, delle lastre e delle pellicole fotografiche, della
celluloide...
Faraday, Oersted, Millikan, Maxwell, Ohm sono solo alcuni degli scienziati che contribuirono allo studio sul magnetismo e alla "nascita" delle onde
elettromagnetiche
La cosa importante da sottolineare è comunque la fiducia che gli imprenditori ebbero nella produzione chimica, investendo immensi capitali e guadagnando
parecchio.
Sempre riguardo alle innovazioni tecnologiche, durante la seconda fase della rivoluzione industriale abbiamo la nascita dell'aereonautica, che prese l'avvio
con il collaudo del primo aereoplano nel 1903 coi fratelli Wright
L'introduzione nell'attività produttiva di nuove macchine
I nuovi macchinari prodotti dalla ricerca e dallo sviluppo scientifico-tecnologico furono da subito introdotti in larga scala nella produzione industriale, con
delle conseguenze importanti: il numero di addetti alla lavorazione di un prodotto cadeva vertiginosamente, dato che la macchina si occupava di tutto;
inoltre vi fu la necessità di addestrare operai qualificati che sapessero usare le macchine a disposizione, conttribuendo così ad una politica industriale
presente anche al giorno d'oggi, la necessità di formare gli operai per renderli più produttivi.
Il campo dove più massiccio fu questo fenomeno fu senz'altro il campo dell'industria pesante, metallurgica e siderurgica, dove impressionante fu il numero
di licenziamenti.
L'introduzione e il massiccio uso di energie nuove:
il petrolio e l'elettricità
L'aspetto energetico ha veramente sconvolto il vivere della popolazione mondiale in seguito alle scoperte di Edison (lampadina), di Maxwell, di Lorentz e di
tutti gli scienziati che scoprirono l'elettricità. L'illuminazione ha stravolto la vita nelle città e nella case, mentre l'uso della corrente elettrica contribuì allo
sviluppo di una rete elettrica che permise negli anni successivi all'enorme uso di elettrodomestici e apparecchiature elettriche quali i telegrafi, inventati da
Morse nel 1840.
Fu scalzato quindi l'utilizzo del petrolio dal campo dell'illuminazione ma l'oro nero fu utilizzato in nuovi campi; la ricerca permise la nascita delle materie
plastiche e il loro utilizzo massiccio nel commercio. La plastica infatti era molto più semplice da utilizzare, meno costosa e più versatile, poteva essere
utilizzata in vari campi e in varie forme, anche se negli ultimi 20 anni è nato il problema dell'inquinamento, sottovalutato all'inizio della produzione plastica.
Comunque l'aspetto più importante dello sviluppo del petrolio fu il suo utilizzo come carburante. Un altro materiale introdotto in questo periodo fu l'acciaio,
utilizzato prevalentemente per la fabbricazione di macchinari, che divenne in poco tempo la materia prima più richiesta dall'industria
La nascita di nuove industrie
Tante furono infatti le industrie che nacquero in seguito al boom industriale; questo fenomeno fu possibile proprio grazie all'investimento di denaro, di
capitale, da parte di "pionieri dell'occidente" che vollero tentare la fortuna. Le industrie si occuparono o di sviluppare settori già attivi in precedenza o
addirittura si occuparono coraggiosamente della produzione di nuovi articoli di mercato, legati soprattutto all'industria chimica (Solvay) o tecnologica
(Siemens).
Le nuove industrie erano caratterizzate da una concentrazione di molti operai in imponenti complessi di fabbrica, fenomeno a cui si applica la definizione di
Grande Industria.
La rivoluzione dei mezzi di trasporto
La Rivoluzione Industriale ebbe per la prima volta la necessità di far transitare la merce in tutto il globo terrestre; ecco quindi un immenso sviluppo dei
trasporti.
Nel mondo marittimo di notevole importanza vi fu la realizzazione dei canali, di Suez e di Panama, oltre a quelli di Kiev e di Corinto.
Le ferrovie, già utilizzate ma in condizioni pessime, furono riorganizzate e l'utilizzo di rotaie in acciaio le rese molto più sicure e durature. Le ferrovie
assunsero valore internazionale e furono quindi costruiti i trafori, come il Frejus (1871) e il S.Gottardo (1882) in Europa, mentre furono allestite linee "Coast
to Coast", da costa a costa, in America e in Russia (Transiberiana).
L'organizzazione delle fabbriche
L'uso di macchine sempre più potenti consentì di trasferire alla macchina molte attività da sempre prerogativa dell'uomo; in questo modo il lavoro umano
perse una gran parte di creatività e divenne sempre più ripetitivo e semplice; inoltre nacque la figura dell'operaio qualificato, del tecnico, che conosce la
macchina e deve intervenire per farla funzionare o per ripararla e che si differenzia dall'operaio-massa, che compie un lavoro di ausilio alle macchine e
uguale per molti.
Inoltre l'attività produttiva dei grandi complessi industriali richiese un rigido coordinamento e una solida programmazione. Si verificò pertanto una divisione
del lavoro: ai dirigenti e ai tecnici spettò il compito di programmare i processi produttivi, agli operai il semplice e ripetitivo lavoro.
La divisione del lavoro apre la strada ad altre innovazioni nell'organizzazione del lavoro:
- il CICLO CONTINUO, ovvero lavorazioni che procedono per turni di operaisenza fermare quasi mai le macchine;
- la PRODUZIONE IN SERIE, la produzione di pezzi tutti uguali l'uno all'altro e intercambiabili;
- le CATENE DI MONTAGGIO, teorizzate da Taylor nella sua organizzazione scientifica del lavoro, rendevano la produzione efficiente, data la brevità e
l'efficienza di produzione, ma che limità molto la creatività dell'operaio, costretto a vedere e ad operare solo su un pezzo del prodotto.
Il Microprocessore
E' il cuore attorno al quale ruota la vita del moderno "Homo tecnologicus". La scoperta indispensabile per mandare l'uomo nello spazio. Per far viaggiare la
voce in ogni angolo del mondo grazie a telefonini sempre più piccoli. Per impegnare i giovani in avvincenti sfide contro mostri ipergalattici, tanto minuziosi
da sembrare veri. E i continui progressi della sua tecnologia sono anche la causa per cui ogni due anni (nel migliore dei casi) i suddetti giovani vorranno un
computer sempre più veloce. E' il microprocessore, la più grande conquista del XX secolo, a detta di molti la porta spalancata sul XXI. In ogni momento
sono circa quindici miliardi i microchip (è così che vengono chiamati) in uso nel mondo, l'equivalente di due computer molto potenti per ogni uomo, donna e
bambino del pianeta. E questo è solo il numero di "contenitori". All'interno di ogni singolo chip infatti, sono contenuti milioni e milioni di transistor (gli
"interruttori elettronici" che consentono al chip di svolgere le sue funzioni). Secondo una stima di Intel, la società americana che nel 1971 ha realizzato il
primo microprocessore della storia, il numero totale dei transistor contenuti nei microchip prodotti in un anno è pari a quello delle gocce di pioggia cadute
su una nazione più grande dell'Italia nello stesso periodo. Senza questi minuscoli interruttori non ci sarebbe possibile accendere la realtà, e non ci si
riferisce solo agli oggetti che rendono più confortevole la vita. Le reti di comunicazione, i trasporti aerei e su rotaia, l'illuminazione pubblica, e ancora il
funzionamento di pacemaker, respiratori artificiali e incubatrici, tutto dipende dagli intricati circuiti incisi su una minuscola lastra di silicio, una scheggia più
piccola di un'unghia e più leggera di un francobollo. Ma come funzionano i semiconduttori? Che cos'è la "rivoluzione del silicio"? Come si passa da un
pugno di sabbia ai sofisticati circuiti integrati? A che punto è la tecnologia e, soprattutto, dove arriverà
La legge di Moore
La vera rivoluzione apportata dalla tecnologia del transistor di silicio è stata quella di poter dare una sorta di "intelligenza" (meccanica o comunque indotta)
agli oggetti, in modo da renderli più funzionali e interattivi con l'essere umano. E in un certo senso i transistor hanno anche "liberato" l'uomo. Il basso
consumo energetico di questi dispositivi, infatti, ha reso portatili (perché alimentabili a pile) una serie di apparecchi - in testa a tutti il computer - per i quali
erano indispensabili un cavo elettrico e una presa. Per capire quanto la realtà sia mutata grazie ai chip, basta dare un'occhiata al cruscotto di una delle
nuove automobili di lusso: solo dieci anni fa una simile strumentazione era ancora fantascienza.
Gli apparecchi del futuro parleranno, ma soprattutto sapranno ascoltare e capire i nostri comandi. Per far questo è necessario che cresca la capacità di
calcolo dei microprocessori, e questo si realizza aumentando la densità dei circuiti, ovvero il numero dei transistor contenuti in un singolo chip, e la loro
velocità. Il transistor, unità di base del circuito integrato, fu inventato nel 1947 (l'anno seguente alla nascita del primo computer, Eniac, un "mostro" di 30
tonnellate) da tre fisici americani dei laboratori della compagnia telefonica Bell: John Bardeen, Walter Brattain e William Shockley. Alla ricerca di un
sostituto per le fragili e costose valvole di vetro utilizzate nelle apparecchiature radio, gli scienziati inventarono un amplificatore solido che svolgeva le
stesse funzioni della "valvola a vuoto" di Fleming. Il dispositivo riusciva a trasmettere corrente attraverso un resistore, e fu chiamato transistor dalla
contrazione dei due termini inglesi "transferring" e "resistor" (trasferimento di resistenza). Elemento fondamentale del transistor è l'impiego di uno speciale
materiale detto semiconduttore. Questo ha caratteristiche intermedie tra un materiale perfettamente conduttore (come il rame o il ferro) e un isolante (per
esempio vetro e plastica). Per i primi esperimenti venne utilizzato il costosissimo gemanio, ma il boom dei transistor si ebbe quando a questo fu sostituito il
silicio (nel 1954), uno dei materiali più abbondanti sulla crosta terrestre. Negli stessi anni si scoprì che aggiungendo alcune "impurità" al semiconduttore,
questo poteva servire da amplificatore, raddrizzatore, sorgente di onde elettromagnetiche: l'epoca delle valvole si era definitivamente chiusa. Il passo
successivo nella tecnologia del silicio fu l'assemblaggio, su un'unica base, di più elementi (come transistor e condensatori): è il passaggio dal singolo chip
al circuito integrato (IC). I primi IC, realizzati negli anni Sessanta, contenevano (il termine tecnico è integravano) tra 100 e 1000 elementi, collegati fra loro
da piste spesse fra i 5 e i 15 micron (il micron è circa cento volte inferiore al diametro del capello umano). Il microprocessore 4004, primogenito di casa
Intel (1971), era un insieme di quattro circuiti elettronici, che integrava al suo interno 2300 transistor ed elaborava 60 mila istruzioni al secondo.
L'evoluzione delle tecniche di miniaturizzazione e la nascita del CAD (Computer Aided Design), uno strumento indispensabile per riuscire a disegnare gli
intricati circuiti che collegano i milioni di elementi dell'IC, sono le strade che la tecnologia ha percorso per realizzare microprocessori sempre più potenti e
veloci. Per far questo la parola d'ordine dell'industria dei chip è "integrazione", e l'avanzare della tecnologia ha seguito una precisa regola matematica: la
legge di Moore. Formulata quasi trent'anni fa dal fisico Gordon Moore, oggi presidente onorario di Intel, la legge prevede che ogni diciotto mesi, a parità di
dimensioni, il numero di transistor per chip raddoppi. Infatti gli anni Settanta sono stati dominati dai circuiti LSI (Large Scale Integration, integrazione su
larga scala), che contavano alcune decine di migliaia di elementi, poi si è arrivati ai Super LSI (oltre 100 mila elementi), e si è aperta l'epoca dei computer
domestici. I microprocessori dell'ultima generazione, definiti ULSI (Ultra Large Scale Integration), contano oltre 10 milioni di transistor, collegati tra loro da
"fili" spessi solo 0,18 micron, e sono in grado di elaborare miliardi di operazioni al secondo. Appena sufficienti per guardare un breve filmato su Internet.
Così come il carbone è stato il motore della prima rivoluzione industriale (alla metà del 1700), la scoperta dei semiconduttori ha permesso il realizzarsi
della "rivoluzione elettronica". La loro caratteristica fondamentale è quella di avere un grado di resistività (l'attitudine di un corpo a condurre corrente
elettrica) intermedio tra i conduttori (come il rame o l'oro, in cui l'elettricità passa agevolmente) e gli isolanti (la porcellana o il vetro, che non si lasciano
attraversare dalla corrente). In natura ci sono vari tipi di semiconduttori: tra gli elementi chimici trionfa il silicio, che forma oltre il 20 per cento della crosta
terrestre. La caratteristica che ha reso i semiconduttori elementi ideali per le applicazioni elettroniche, è la possibilità di controllare la loro resistività e il
grado di conduzione (e questo permette di creare al loro interno dei veri e propri interruttori) semplicemente modificando la composizione dell'elemento
base con il cosiddetto "drogaggio", ovvero l'introduzione di altre sostanze: le impurità. A cavallo tra gli anni Trenta e Quaranta gli scienziati del centro di
ricerche sui semiconduttori dei laboratori Bell notarono che fondendo la silice sottovuoto si ottenevano due tipi di cristalli: uno (il silicio di tipo "p") in cui
l'elettricità passava grazie a un eccesso di carica positiva, e l'altro (detto tipo "n") in cui la conduzione avveniva tramite un eccesso di carica negativa. La
differenza tra i due tipi è dovuta proprio alle impurità presenti nei cristalli. Nel tipo "p" in cui l'impurità è costituita da boro e indio, questa rende disponibile
una lacuna (portatrice di carica positiva) e il passaggio di corrente avviene perché le lacune si spostano verso il polo negativo. Il silicio di tipo "n", in cui
l'impurità è dovuta a elementi come arsenico e fosforo, si comporta diversamente: le impurità liberano un elettrone (portatore di carica negativa) e la
corrente passa per il movimento degli elettroni verso il polo positivo. L'introduzione di queste impurità (ne basta solo un atomo ogni dieci milioni) fa
diminuire proporzionalmente la resistività del silicio. In tal modo in laboratorio si può modificare in maniera controllata la conduttività. Dove nascono i
microchip Lavorare nel mondo dei microprocessori significa entrare in un'altra dimensione della realtà, una dimensione nella quale l'uomo è sicuramente
troppo "grande" e l'ambiente nel quale si muove ricchissimo di pericoli. Uno starnuto, un frammento di capello caduto, una particella di polvere in più, per i
delicati circuiti dei microprocessori hanno la potenza di un tornado, l'impatto distruttivo di un meteorite. Per questo, nelle fabbriche in cui si producono i
chip, è necessario seguire delle regole rigidissime. La "clean room" (è questo il nome tecnico dei locali asettici degli impianti di produzione) ha
un'atmosfera che ricorda molto i laboratori superprotetti (i cosiddetti P4) dove si fanno ricerche sui virus letali. Separati dal resto del mondo da una serie di
porte a tenuta ermetica, i tecnici (chiamati "bunny men", che significa uomini-coniglio) si muovono con cautela, avvolti in tute immacolate che danno loro
l'aspetto di astronauti. Le "clean room" sono circa dieci volte più pulite delle sale operatorie degli ospedali: è ammessa una sola particella di polvere ogni
trenta centimetri quadrati.
In ciascun locale l'aria viene continuamente pompata dal soffitto e risucchiata attraverso il pavimento, in modo che si rinnovi completamente ogni dieci
minuti. Per evitare ulteriormente rischi di "contaminazione", la pressione dell'aria all'interno è leggermente superiore rispetto a quella dell'esterno. In tal
modo, se nel locale asettico si verifica una lesione, l'aria pulita dell'interno tende a uscire, impedendo all'aria esterna, contaminata, di entrare. Esiste un
vero e proprio "rituale di vestizione" al quale chiunque entri nelle "clean room" deve sottoporsi: tutto il corpo va protetto e ci si deve sottoporre a speciali
doccie ad aria più volte durante la vestizione. Ogni possibile fonte di contaminazione deve essere evitata, e ai tecnici è richiesto di attenersi a regole che
possono anche far sorridere. La produzione di microchip va avanti incessantemente, 24 ore al giorno, i "bunny men" svolgono pesanti turni (da 8 a 12 ore)
e la concentrazione richiesta provoca una tale tensione che sono state rese obbligatorie due pause per ogni turno. Durante queste pause ci si rilassa, si
fanno esercizi di stretching e infine si passano le consegne all'altra squadra. Per creare un processore moderno (per esempio i nuovi tipi di Intel) ci
vogliono circa 45 giorni, ed è un lavoro di squadra realizzato negli impianti di dodici nazioni diverse, collegati per via telematica.
Che si tratti del circuitino per una calcolatrice tascabile o di un sofisticatissimo processore di ultima generazione, il processo di produzione dei chip è lo
stesso. Quel che cambia è la complessità dei circuiti che si devono incidere sul minuscolo quadratino di silicio chiamato "die". Il "die" è talmente piccolo che
può essere facilmente tenuto sulla punta di un dito. Eppure, su questa "scheggia" sono disposti alcuni milioni di transistor, collegati tra loro da incredibili
architetture spesse solo qualche frazione di micron. La produzione di un microchip dura circa tre mesi. Si parte da una "carota" di silicio, un cilindro lungo
circa un metro e dal diametro di 20 centimetri. Da questa si ricavano dei dischi sottilissimi, detti wafer, lamine spesse circa 500 micron che vanno
accuratamente levigate. Prima di passare alla fase di incisione dei circuiti, ogni singolo wafer viene esaminato da un raggio laser che evidenzia
imperfezioni e irregolarità superficiali da uno a tre micron (limite massimo di tolleranza). Il secondo passo consiste nel rivestire la superficie del wafer con
uno strato di diossido di silicio (SiO2). Questa è la sostanza utilizzata per condurre la corrente attraverso il microprocessore. Il disco di silicio viene poi
rivestito con una sostanza fotosensibile chiamata "gelatina", che diventa molto morbida e viscida quando viene esposta alla luce ultravioletta. L'incisione
dei circuiti sul wafer, infatti, avviene tramite un processo simile a quello fotografico chiamato "fotolitografia". È il metodo migliore per realizzare disegni così
piccoli. Nella fase detta "mascheramento", la maschera fotografica con il disegno del circuito del microprocessore viene collocata sopra lo strato di
gelatina. La maschera e il wafer vengono quindi esposti alla luce ultravioletta. La maschera consente alla luce di colpire solo alcune aree del wafer, in
questo modo il disegno viene "riportato" sul silicio.
Le parti di gelatina che diventano morbide dopo l'esposizione alla luce vengono rimosse con un solvente, (è il "processo ad acquaforte") che mette allo
scoperto il diossido di silicio sottostante. La parte finale di questo processo consiste nel rimuovere il diossido di silicio esposto e quindi il resto della
gelatina, e nel "drogare" il silicio in corrispondenza dei circuiti, per modificare (solo in quei punti) le caratteristiche elettriche del semiconduttore. Il processo
di mascheramento e di incisione viene ripetuto per ogni strato della circuiteria, fino a 20 volte, a seconda della complessità del microprocessore da
produrre. A questo punto il dischetto di silicio può contenere circa 200 chip, pronti per essere testati, separati, confezionati e montati su altre schede o
circuiti. Ogni chip viene testato a più riprese, sotto speciali luci e con simulazioni elettroniche. Il test finale chiamato "wafer sort", viene effettuato con una
speciale sonda sottilissima chiamata "sonda ago", capace di effettuare diecimila controlli al secondo su ogni wafer. Un chip che non passa il test viene
segnato con inchiostro rosso, e verrà eliminato prima della fase successiva. Al termine del controllo i wafer sono tagliati con una punta di diamante per
separare ogni chip, che a questo punto può finalmente essere chiamato "die". I "die" sono quindi posti su un vassoio antistatico pronti per essere
"impacchettati" in specifici involucri protettivi (il termine tecnico con cui si indica questa fase è "packaging"), che proteggono i chip dall'ambiente esterno e
contengono le connessioni elettriche necessarie perchè esso possa "comunicare" con gli altri chip della scheda dove sarà montato.
Sono gesti che ripetiamo quotidianamente: accendiamo il computer, facciamo apparire sul monitor il programma che ci serve (ovvero lo "carichiamo"), ci
lavoriamo, salviamo il lavoro fatto (ovvero memorizziamo) e lo stampiamo.
Magari contemporaneamente abbiamo un Cd audio in sottofondo, o ci concediamo una sosta per dare un'occhiata alla posta elettronica. Per fare tutte
queste operazioni ci limitiamo a spingere qualche tasto o a cliccare con il mouse sugli appositi comandi. Tutto semplice, all'apparenza, ma cosa accade nel
micromondo di silicio della CPU (la Central Processing Unit), il "cervello" del computer, quando cerca di obbedire ai nostri comandi? Se potessimo entrare
in questa dimensione sarebbe come assistere, affacciati dal parapetto di un grattacielo, allo spettacolo di milioni e milioni di auto che si muovono (i dati
immessi); impulsi elettrici che schizzano da una parte all'altra dei circuiti, in un moto regolato da sincronizzatissimi semafori: i transistor. Qualsiasi ordine
che diamo al computer, infatti, viene tradotto dalla macchina in una serie di zero e uno, (i bit del linguaggio binario), simboli a cui corrispondono le due
possibili posizioni dei transistor nel chip di silicio: aperto (fa passare corrente) o chiuso (la corrente non passa più, come abbiamo visto nei disegni alle
pagine 28-29). E' traducendo gli ordini in questo semplicissimo linguaggio che il computer "capisce" cosa fare. Il microprocessore è fornito di diversi tipi di
"interruttori" (i transistor), che corrispondono alle diverse operazioni logiche possibili. La combinazione di queste operazioni permette alla macchina di
eseguire anche gli ordini più difficili. Nei microprocessori ogni area è realizzata secondo un preciso schema di circuiti, a seconda della funzione logica che
ogni modulo deve svolgere (memoria, gestione di dati, o di codici di istruzioni, per esempio). La velocità con la quale gli elettroni si muovono nel
microprocessore con il loro carico di informazioni (e quindi la velocità di esecuzione dei comandi) è data dal "clock" (in inglese, orologio). Questo, infatti, è
proprio un orologio che dà il segnale di partenza agli elettroni, per evitare "imbottigliamenti" e disturbi. Nei microprocessori più potenti questo segnale si
ripete con una frequenza di centinaia di Megahertz (un Megahertz equivale a un milione di impulsi al secondo): in un miliardesimo di secondo un elettrone
deve percorrere 15 centimetri. Un altro elemento importante per la velocità (e quindi la capacità di compiere operazioni complesse) del microprocessore è il
numero di "fili" elettrici con cui esso trasferisce i dati al suo interno e verso l'esterno. In linguaggio informatico questa specie di "autostrada" lungo cui
viaggiano i bit si chiama "bus" e, a seconda delle "corsie" che contiene, può essere a 32 o a 64 bit (nei processori di ultima generazione). Com'è facile
dedurre, la complessità dei circuiti di un microprocessore è notevole: esistono miliardi di linee di codice con cui i singoli chip devono interagire. Il progettista
di microchip, oggi, utilizza sofisticati programmi CAD (Computer Aided Design) eseguiti su calcolatori potentissimi, per creare le mappe dei circuiti
elettronici. In strutture così piccole la precisione è fondamentale: per questo, una volta assemblato il circuito sul computer, il progetto viene stampato con
enormi macchine (i plotter) su fogli grandi 5 metri per 5, dove verrano effettuati tutti i controlli prima di procedere alla produzione.
Secondo la legge di Moore la densità di integrazione raddoppia ogni ventiquattro mesi. Ciò equivale a un aumento annuo della capacità di calcolo del 5060 per cento. Cosa hanno fatto i ricercatori, quali meccanismi fisici hanno sfruttato e, soprattutto, hanno in progetto di sfruttare, per migliorare così
consistentemente la tecnologia del silicio? La strada che i colossi dell'elettronica hanno deciso di imboccare è una sola: miniaturizzazione. 6
"Miniaturizzare significa agire sulle dimensioni geometriche degli elementi di base dei circuiti integrati: i transistor" spiega l'ingegner Vincenzo Giustino,
responsabile dello sviluppo applicazioni nella divisione microelettronica di IBM. "Infatti, al diminuire delle dimensioni del transistor, l'elettrone (che
corrisponde al singolo bit) ha un percorso più breve da compiere, e quindi lo attraverserà in un tempo minore. Ne consegue che il transistor può svolgere il
suo compito fondamentale (funzionare come un interruttore), più velocemente, consentendo all'intero circuito integrato, al processore e infine al computer,
di funzionare più rapidamente". Il primo mezzo con cui percorrere la strada della miniaturizzazione è lo sviluppo di tecniche fotolitografiche sempre più
precise. Per fare questo è necessario che il raggio luminoso che incide il circuito abbia una lunghezza d'onda molto ridotta (questa, in pratica, deve essere
più piccola delle dimensioni del circuito). "Finora è stata impiegata la gamma degli ultravioletti, ed è stato fatto un primo passo per l'utilizzo dei raggi x
"soft", ovvero quelli la cui lunghezza d'onda più si avvicina agli ultravioletti", spiega Vincenzo Giustino. "La meta da raggiungere è quella dei raggi X
cosiddetti "strong", a lunghezza d'onda molto inferiore. Che però, allo stato attuale della tecnologia trapassano il silicio e la fotoresina senza farli reagire".
Ma c'è una strada alternativa alla miniaturizzazione: aumentare la velocità dei bit agendo sui materiali: il silicio e le sue connessioni. "Sono tre le
innovazioni proposte da IBM in questo campo" continua l'esperto: "la prima, che agisce sulla fisica dei materiali, è la creazione di chip che utilizzano una
particolare miscela di silicio e germanio. Ciò li rende più veloci, ideali per operare nel campo delle alte frequenze, nella trasmissione di voce e dati". La
seconda scoperta è chiamata tecnologia SOI (Silicon On Insulator, ovvero silicio su un isolante). Grazie a questa tecnica i milioni di minuscoli transistor
presenti sul chip verranno protetti per mezzo di uno strato isolante, riducendo gli effetti elettrici nocivi che assorbono inutile energia e diminuiscono le
prestazioni. "è stato così possibile creare un chip che richiede solo un terzo dell'energia e fornisce prestazioni superiori fino al 35 per cento rispetto agli altri
processori", spiega l'esperto. Legato alla tecnologia dell'isolante, l'ultima innovazione di IBM riguarda le connessioni. In genere i chip sono collegati tra loro
da minuscoli fili di alluminio, buon conduttore certo, ma non come il rame. Quest'ultimo materiale finora non veniva usato perché risultava tecnicamente
difficile integrarlo con il silicio (gli atomi di rame vi si "spandevano" all'interno senza possibilità di controllo).
"La scoperta e l'applicazione del filtro isolante, che consente di realizzare le connessioni in rame", conclude Giustino, "aumenta la velocità di prestazione
dei chip del 33 per cento (possono avere una velocità di clock fino a 450 MHz) consentendo nello stesso tempo dimensioni molto ridotte e un basso
consumo d'energia. L'ideale, per esempio, per i computer portatili". E Intel, quale asso ha nella manica per la nuova generazione di processori? La
tecnologia è ancora un segreto, quel che è noto è il risultato che si vuole raggiungere con i successori del Pentium II: raddoppiare la quantità di bit
immagazzinabile su un singolo chip. Di questi processori per ora si conoscono solo i nomi in codice, Katmai, Merced e Tanner, e le finalità: potenziare i
programmi per realizzare animazioni su immagini tridimensionali, le applicazioni video e la riproduzione audio. Con queste tecnologie siamo vicini a
raggiungere il limite delle prestazioni? Assolutamente no, rispondono i ricercatori. Siamo solo a metà del cammino e ci vorrà ancora un secolo per
comprendere e sfruttare tutte le opportunità che i microchip possono offrirci. Ieri mero strumento, oggi indispensabile partner, negli anni a venire c'è il
rischio che la macchina diventi più in gamba dell'uomo?
Un computer è costituito da una parte hardware, costituita da tutte le componenti fisiche e da una parte software, ovvero tutti i programmi che verranno fatti
"girare".
Per quanto riguarda l'hardware un computer è costituito dalle seguenti componenti:
case, il contenitore all'interno del quale sono montati i diversi componenti;
floppy drive, il lettore per floppy disk;
lettore di CD-Rom,o DVD, indispensabile per installare il sistema operativo e il software che verrà in seguito utilizzato;
hard disk, nel quale vengono caricati il software e salvati i dati;
motherboard, il vero e proprio centro vitale del computer, alla quale vengono collegate, in modo differnte, tutte le periferiche presenti nel sistema;
memoria;
processore;
scheda video, sia solo 2D che dotata anche di funzioni di accelerazione 3D;
cablaggi vari (in genere forniti in dotazione con la motherboard);
mouse;
tastiera;
monitor;
eventuale scheda audio con sistema di altoparlanti;
eventuale scheda acceleratrice 3D, per sistemi orientati ad un utilizzo con giochi;
eventuale scheda di rete - modem interno - modem esterno;
scanner, stampante o ogni tipo di periferiche attualmente in commercio.
Il software invece è costituito dal Sistema Operativo e dalle varie applicazioni.
Un Sistema Operativo è un programma particolare, che si occupa di mettere in comunicazione l'utente e la macchina, traducendo letteralmente ogni tipo di
informazione fornitagli in linguaggio binario, che si caratterizza da una serie di 1 o 0 in successione; naturalmente il Sistema Operativo si occupa di molte
altre funzioni, quali l'immagazzinamento di dati nell'hard disk, la comunicazione tramite le porte di comunicazione, quelle che si trovano nel retro della CPU
(Central Processing Unit), e di rendere visibile dall'utente le informazioni volute. I Sistemi Operativi più diffusi sono l'MS DOS, il primo in assoluto che risale
al 1981, MS Windows 3.11, MS Windows 95, MS Windows 98 e il nuovissimo MS Windows Neptune, l'ultimo uscito da casa Microsoft. Altri sistemi
operativi sono l'OS di Machintosh, Linux e Unix; altri sistemi operativi invece sono specifici per una gestione di una serie di computer, una Rete, quali MS
Windows 3.11 for Workgroup, MS Windows NT, MS Windows 2000, Linux stesso.
Le applicazioni invece sono programmi che permettono di facilitare molte attività umane, quali l'organizzazione di dati, la stampa di materiale, il gioco, e
moltissime altre ancora. Le più conosciote sono senz'altro MS Word, MS Excel, Adobe Photoshop, MS Explorer (quella con cui probabilmente state
vedendo queste pagine!) e moltissime altre.
Il funzionamento di un computer non è molto semplice, per il fatto che un computer moderno è caratterizzato da un'evoluzione progressiva di altri modelli
precedenti, per cui molte sono le differenze tra i vari computer; tuttavia è possibile schematizzare un modello base valido per tutti.
Innanzitutto l'alimentazione: l'alimentatore fornisce corrente continua, trasformandola da quella alternata della rete elettrica, a tutte le apparecchiature
interne. La corrente poi passa nei circuiti, grandi poco più di qualche micron, che simulano il sistema binario: se passa corrente rappresenta un ipotetico
"1", se il circuito non è attivato allora è rappresentato uno "0". In effetti il processore, l'apparecchio che fornisce l'elaborazione dei dati, compie il suo lavoro
semplicemente accendendo milioni di circuiti al secondo, lavorando quindi col sistema binario. Il computer, come dicevamo prima, ha bisogno di dati da
elaborare, che vengono forniti da sorgenti di "input", mouse e tastiera. I dati vengono trasformati in linguaggio binario dal sistema operativo e elaborati dal
processore; vengono poi eventualmente divisi in pacchetti, depositati in una memoria momentanea ma superveloce, la Cache, che permette il riutilizzo di
dati appena elaborati. Per ultimo i dati vengono mandati alla memoria fondamentale, la RAM, una memoria capiente ma con l'unico difetto di perdere i dati
depositati quando manca corrente (infatti quando manca corrente ogni circuito diventa spento!). Allora subentrano i floppy disk e gli hard disk, e ogni tipo di
memoria di massa, che sfruttano un campo magnetico prodotto da una corrente elettrica per orientare minuscoli aghetti ferromagnetici che con la loro
posizione (orientata o meno) simulano di nuovo un numero binario, leggibile con un campo magnetico più leggero per non cambiare l'orientamento. Un
altro tipo di supporto magnetico è il CD-ROM, disco ottico caratterizzato da una maggior capienza di dati ma dal limite di non poter essere riscritto. I dati
salvati poi possono avere diversi utilizzilizzati per diversi scopi: possono essere inviati ad una stampante, per essere fissati su un supporto cartaceo,
visualizzati a video tramite monitor e scheda video, che elabora la grafica; i file sonori sono invece inviati alla scheda audio che li invia a sua volta agli
speaker esterni mentre tutti i file possono essere inviati nella grande Rete tramite un modem, interno o esterno. I collegamenti tra processore e le
periferiche sono forniti da apposite porte di comunicazione (le più famose sono le LPT1 per le stampanti, COM, per modem, scanner..., USB, SCSI,
Firewire...) e i BUS di sistema, appositi collegamenti veloci interni. Invece i collegamenti tra transistor e mini circuiti all'interno di un processore avvengono
grazie alla tecnologia della semiconduzione, tecnologia che permette la realizzazione di cavi, fili, collegamenti a resistenza quasi nulla ma che hanno
bisogno di una ventola di refrigerazione che raffredda i materiali, semiconduttori solo a temperature ambiente.
CD-ROM
Acronimo per Compact Disc Read-Only Memory, un dispositivo WORM (di sola lettura), di capacità pari a 650 MB, diffusosi a partire dall'inizio degli anni
Novanta. Il processo di memorizzazione consiste nell'incisione con un fascio laser di un sottile disco metallico, che viene successivamente ricoperto da un
film di materiale plastico trasparente.
I CD-R sono compact disc in cui il processo di memorizzazione può essere condotto in maniera più semplice, utilizzando un apposito dispositivo detto
masterizzatore: l'operazione può essere quindi effettuata anche da un utente non professionale. Di norma, per i CD-R si utilizzano gli stessi lettori dei CDROM.
Un ulteriore progresso tecnologico ha portato all'introduzione dei CD-RW. Su questo tipo di supporto i dati possono essere scritti, modificati e cancellati;
per quanto anche i CD-RW utilizzino tecnologie magneto-ottiche, necessitano di lettori dedicati, non essendo compatibili con i CD-ROM e i CD-R.
Accanto ai CD sta emergendo un nuovo tipo di supporto magneto-ottico, detto DVD (acronimo per Digital Versatile Disk, ovvero Digital Video Disk);
sviluppato per la memorizzazione di film come alternativa alle cassette a nastro magnetico (videocassette), può contenere da 5 a 20 MB a seconda del
formato utilizzato (è ancora in corso la definizione di uno standard).
Un normale CD può contenere un'enorme mole di informazioni, circa 650 milioni di byte (megabyte, Mb), l'equivalente di più di 400 dischetti da 1,44 Mb.
Ciò significa che un singolo CD può contenere più di un'ora di musica di alta qualità o un intero film, oltre allo spazio (il 15% della memoria disponibile)
destinato alla verifica dell'integrità dei dati contenuti.
Il tipo più comune, il CD audio, sta assumendo un ruolo sempre più importante, poiché consente di fruire di registrazioni musicali di alta qualità; il CD-ROM
è invece ideale per la diffusione di enciclopedie e altro materiale di consultazione. A differenza dei dischetti del computer, però, i CD-ROM non possono
essere usati per raccogliere altre informazioni. Infatti la registrazione di un CD viene eseguita incidendo una sequenza di microscopiche cavità sulla
superficie riflettente di un disco vergine (master), dal quale si ottiene una matrice che serve come forma per produrre una serie di copie mediante lo
stampaggio a iniezione della materia plastica (policarbonato o polimetilmetacrilato) che funge da supporto. La sequenza delle cavità è incisa sul master da
un laser di potenza e successivamente, quando il disco viene fatto girare nel lettore, è interpretata come informazione digitale da un diodo laser: il raggio
laser proiettato sul CD può venire riflesso oppure no, a seconda che incontri la superficie riflettente o una microcavità. Si ottiene così una successione di 0
e 1 che viene decodificata in musica, testo, immagine o qualsiasi altra informazione che possa essere memorizzata in forma digitale.
Il metodo di lettura del CD, non richiedendo alcun contatto meccanico diretto, permette in teoria una durata del disco eccezionalmente lunga. I compact
disc si basano tutti sulla stessa tecnologia, e utilizzano il medesimo sistema di codifica; è tuttavia possibile una classificazione in base alle applicazioni
specifiche cui sono destinati: tra i più noti, ad esempio, sono i CD-I, o dischi interattivi.
La famiglia dei CD è in rapida espansione, e iniziano a essere disponibili anche CD scrivibili, benché per ora siano notevolmente costosi. Contrariamente al
CD-ROM, realizzato incidendo con il laser la superficie riflettente, questi nuovi CD vengono prodotti riscaldando un materiale magnetico in modo da
modificarne le proprietà ottiche.
Nonostante l'elevata capacità di memorizzazione, l'affermazione del compact disc non è stata immediata, soprattutto a causa dei problemi tecnici causati
dalla lentezza con cui si riusciva ad accedere alle informazioni. I primi lettori infatti presentavano una bassa velocità di reperimento dei dati (circa 150
kilobit al secondo), e un tempo medio di accesso di alcune centinaia di millisecondi, considerevolmente svantaggioso rispetto ai 10,5 millisecondi del disco
rigido di un computer. Questo problema è stato risolto nei lettori più recenti.
CD-I
Acronimo di Compact Disc Interactive (compact disc interattivo); un disco ottico che può immagazzinare immagini, audio, video e testi, permettendo
presentazioni multimediali interattive. Si tratta di un tipo di CD-ROM che consente la visualizzazione e la scomposizione di immagini statiche, di animazioni
e di effetti speciali; impiega specifici metodi di codifica, compressione, decompressione e visualizzazione delle informazioni memorizzate. A differenza di
quanto richiesto da un comune CD-ROM, per la riproduzione di un CD-I non è necessario l'uso di un computer: basta disporre di un apposito lettore e di un
ordinario apparecchio televisivo (vedi Televisione); lo stesso lettore per CD-I può riprodurre anche CD video e CD audio.
Masterizzatore
Un dispositivo capace di scrivere informazioni su CD-ROM. Il masterizzatore permette generalmente di registrare su un supporto ottico in modalità
compatibile con i diversi standard: può dunque creare compact disc (CD) musicali o PhotoCD oltre che, naturalmente, CD utilizzabili per la distribuzione di
software o di dati per computer. I masterizzatori multisessione permettono di compiere il processo di registrazione in momenti diversi, detti sessioni. Alcuni
modelli sono specifici per CD-RW (compact disc read and write), supporti ottici che consentono sia la lettura che la riscrittura, a differenza dei CD-R (read)
standard, che consentono la sola lettura. Al momento si stanno anche diffondendo nel mercato della masterizzazione anche alcuni masterizzatori per DVD.
DVD o Digital Video Disc
Dispositivo di immagazzinamento di dati digitali del tutto simile nell'aspetto a un CD audio o a un CD-ROM, ma con capacità e velocità di lettura di gran
lunga superiori a entrambi. Esistono DVD video, destinati a sostituire le videocassette a nastro magnetico per la riproduzione delle immagini, e DVD-ROM,
che sostituiranno i CD-ROM come dispositivi di memoria per computer. La tecnologia dei DVD-audio è ancora in fase di definizione.
DVD video
Numerosi sono i vantaggi del DVD rispetto ai tradizionali sistemi di registrazione e riproduzione delle immagini. Ultimo prodotto della tecnologia dei dischi
ottici superdensi (Super Density Disc, SD), è caratterizzato da un'elevata capacità, più che doppia rispetto a quella dei nastri magnetici delle videocassette,
che garantisce un'alta definizione delle immagini e una lunga durata della registrazione (da 2 a 8 ore). Anche la velocità di lettura è molto superiore a quella
dei dispositivi esistenti: se un CD audio viene letto alla velocità di 0,15 megabit (milioni di bit) al secondo, un DVD viene letto a circa 4,7 megabit al
secondo, vale a dire a una velocità più di trenta volte maggiore. Come nei CD audio, l'informazione digitale nei DVD è non lineare, il che significa che non
deve essere letta necessariamente nell'ordine in cui è stata registrata, ma permette un accesso casuale. Sono previste inoltre fino a 8 piste audio su un
medesimo disco, che possono contenere ad esempio la versione originale di un film e le versioni doppiate in diverse lingue, e fino a 32 piste per i sottotitoli.
La qualità dell'audio è pure molto alta. Quelli che possono essere considerati svantaggi del DVD sono in realtà caratteristiche in via di perfezionamento per
un prodotto ancora nuovo. Primo fra tutti è la possibilità di sola lettura: i DVD video di prima generazione disponibili sul mercato non possono essere
registrati, ma solo letti con appositi riproduttori; è prevista tuttavia la messa a punto di sistemi che permetteranno in futuro di utilizzare il DVD anche per la
videoregistrazione casalinga.
DVD-ROM
I DVD-ROM (DVD Read Only Memory, a sola lettura), destinati alla memorizzazione in forma digitale di dati e di elementi audio e video leggibili da un
computer, godono delle stesse caratteristiche di alta capacità (attualmente 3,95 o 2,58 miliardi di byte) e velocità di lettura descritte per i DVD video. La
maggior parte dei computer più sofisticati, dotati di lettori per DVD, possono riprodurre anche le immagini di un DVD video. Le principali case produttrici
mondiali all'avanguardia nel campo della tecnologia dei dischi superdensi, tra cui Philips, Sony e Hewlett-Packard, continuano ad annunciare l'uscita di
nuove versioni di DVD-ROM, con capacità e prestazioni sempre migliori.
Esistono inoltre DVD riscrivibili (DVD-RAM), destinati alla registrazione e allo svilupo di software, e DVD scrivibili una sola volta (DVD-R, recordable),
anch'essi utilizzati per la memorizzazione di dati leggibili da un computer.
Hard Disk
Dispositivo di memoria di massa sul quale possono essere immagazzinate informazioni. Si distinguono diversi tipi di dischi a seconda del supporto (disco
rigido o hard disk; disco flessibile o floppy disk) e della tecnica di scrittura e memorizzazione (magnetizzazione o incisione). Nella maggior parte dei
computer, un disco è il supporto primario per l'immagazzinamento permanente o semi-permanente dei dati. Il sistema di memorizzazione di un computer è
composto da un supporto per i dati, un dispositivo di lettura e scrittura e da un'interfaccia tra quest'ultimo e gli altri componenti del sistema.
Floppy Disk: un supporto per la memorizzazione dei dati costituito da un sottile disco di materiale plastico (comunemente Mylar o poliestere) ricoperto da
una vernice magnetica a base di ossido ferrico e racchiuso in una custodia protettiva quadrata di plastica rigida o semirigida. Sviluppato dall'IBM a partire
dal 1970 nel formato 8 pollici, fu successivamente prodotto nei formati 5,25 pollici e 3,5 pollici, quest'ultimo con custodia rigida. I dati sono memorizzati
sotto forma di bit dalla testina di lettura/scrittura, che modifica la magnetizzazione del disco (vedi Magnetismo): una determinata orientazione del campo
magnetico rappresenta un 1, la direzione opposta rappresenta uno 0. La capacità di un floppy può andare da qualche centinaia di migliaia a oltre un
milione di bit. I primi floppy disk da 5,25 pollici per IBM PC contenevano 180 kilobyte (kB) di dati; in seguito, i dischi a doppia densità, ovvero con densità
(bit per pollice) doppia rispetto a quella dei dischi preesistenti, portarono la capacità a 360 kB. Nei dischi a doppia densità viene usata una codifica
modificata a modulazione di frequenza per la registrazione delle informazioni e dei dati. Attualmente vengono utilizzati dischi da 3,5 pollici scritti su
entrambi i lati del supporto magnetico, di capacità pari a 720 o 1400 kB nei sistemi MS-DOS e pari a 800 o 1400 kB negli Apple Macintosh.
Hard Disk: è un dispositivo di memoria di massa di elevata velocità e capacità (da decine a migliaia di Megabyte), costituito da uno o più dischi di
materiale rigido, con un rivestimento che permette la registrazione magnetica dei dati. Un disco rigido tipico ruota a 3600 giri al minuto, mentre le testine di
lettura/scrittura viaggiano a distanza infinitesima dalla sua superficie. Gli hard disk, la cui realizzazione richiede strumenti e procedure di alta precisione,
vengono sigillati in contenitori rigidi per evitare che le impurità interferiscano con le strettissime tolleranze comprese fra testine e disco. Grazie alla loro
struttura rigida possono essere impilati, in modo che un solo drive possa avere accesso a più dischi. Nel complesso un hard disk può essere costituito da
un numero di elementi compreso tra due e otto.
Disk Drive: è un dispositivo elettromeccanico in grado di eseguire operazioni di lettura e scrittura dei dati su un disco. I principali componenti di un disk
drive sono il perno su cui è montato il disco, il motore che mette il disco in rotazione quando il drive è in funzione, una o più testine di lettura/scrittura, un
secondo motore che posiziona le testine sul disco e la circuiteria di controllo che sincronizza le operazioni di lettura e scrittura e trasferisce le informazioni
dal computer al disco e viceversa.
Disk Controller: il trasferimento di informazioni tra il disco e il computer è gestito da un dispositivo chiamato disk controller, costituito da un circuito
integrato dedicato e da un insieme di circuiti associati. Esso svolge funzioni quali il posizionamento della testina di lettura/scrittura, il coordinamento tra il
drive e il microprocessore e il controllo dello scambio di informazioni con la memoria. Il disk controller viene usato sia con il drive del disco rigido sia con
quello del floppy disk. In alcuni computer è realizzato come parte del sistema: nei computer Macintosh, ad esempio, il controller del floppy disk è un
integrato speciale detto Integrated Woz Machine (IWM, dal nome di Steven Wozniak, suo principale creatore). In altre macchine, come i personal originali
IBM, il disk controller è realizzato su una scheda che si inserisce in uno slot di espansione dell'unità di sistema, mentre nei PC più recenti esso è integrato
sulla scheda madre. Un singolo disk controller può essere in grado di gestire più di un disk drive.
Monitor
Dispositivo che visualizza le immagini generate dall'adattatore video di un computer, attraverso un tubo a raggi catodici. Il termine si riferisce al
visualizzatore e al suo contenitore. Esistono monitor di diverse misure, tra cui le più diffuse sono quelle comprese tra i 14 e i 19 pollici. Un parametro
significativo che quantifica la capacità di riproduzione delle immagini di un monitor è la sua risoluzione; essa dipende dalle dimensioni dello schermo, dal
numero di pixel e dall'intensità del fascio elettronico del tubo. Nelle applicazioni di grafica computerizzata, con l'aiuto di una penna ottica l'utente può creare
le immagini agendo direttamente sulla superficie dello schermo.
Tubo a raggi catodici Dispositivo elettronico che permette di visualizzare un segnale elettrico su uno schermo luminescente. Si tratta di un particolare tipo
di tubo elettronico, costituito da un contenitore di vetro in cui è stato realizzato il vuoto, recante a un'estremità un dispositivo (cannone elettronico) che
emette un fascio di elettroni contro lo schermo luminescente posto all'altra estremità. Il tubo a raggi catodici sta alla base del principio di funzionamento di
televisori, apparecchi radar, computer e oscilloscopi. Gli elettroni emessi dal catodo del cannone elettronico (da cui il nome di raggi catodici) vengono
accelerati da una serie di griglie a potenziale positivo rispetto al catodo; quindi passano attraverso anodi di forma opportuna, che focalizzano il fascio fino a
renderlo di sezione puntiforme. Tra il cannone elettronico e lo schermo sono situate due coppie di piastre elettriche o di solenoidi magnetici, che deflettono
il fascio a seconda del segnale elettrico a esse applicato. In tal modo, gli elettroni vanno a colpire un punto preciso dello schermo, la cui posizione è
determinata dal segnale applicato alle placche o ai solenoidi. Nei tubi a deflessione elettrica, la coppia di piastre orizzontali controlla i movimenti verticali
del fascio, quella di piastre verticali ne controlla i movimenti orizzontali; la deflessione in questo caso è proporzionale alla differenza di potenziale tra le
piastre. Il sistema di deflessione magnetica, basato sull'azione di opportuni campi magnetici, funziona in modo analogo sul fascio di elettroni.
Risoluzione In informatica, la precisione con cui un'immagine viene riprodotta sul monitor, su carta dalla stampante o su altro supporto. Si distingue in alta
e bassa risoluzione e viene espressa in numero di punti nell'unità di superficie o come distanza lineare tra i singoli pixel. Nella grafica computerizzata e
nella stampa si utilizza il termine dot; esso indica un singolo punto che viene combinato con altri in una matrice di righe e colonne per formare un carattere
o un elemento grafico. Dot non ha lo stesso significato di spot, termine che indica un gruppo di punti usato per produrre tinte sfumate (vedi Dithering).
alta risoluzione: il termine, spesso abbreviato con Hi-Res (High Resolution), indica un alto livello di precisione nella riproduzione dei testi e delle immagini.
L'alta risoluzione è correlata al numero di pixel (punti elementari) che compongono un'immagine: maggiore è tale numero, maggiore è la risoluzione. Per
quanto riguarda i computer, la risoluzione dipende sia dalle caratteristiche della scheda video che da quelle del monitor. Ad esempio, un scheda Enhanced
Graphics Adaptor (EGA) può produrre un'immagine con risoluzione di 640 x 350 pixel, maggiore di quella possibile per un IBM Colour/Graphics Adaptor,
che produce immagini con risoluzione di 640 x 200. Le risoluzioni possibili per il monitor si spingono ben oltre quelle esemplificate, superando il megapixel
(1000 x 1000 pixel). Per quanto riguarda i monitor il valore di riferimento è dato dalla distanza (in inglese, dot pitch), espressa in millimetri, tra i singoli punti
dello schermo di un tubo a raggi catodici o tra gli elementi di una matrice di cristalli liquidi; minore è tale distanza, maggiore è la risoluzione dello schermo.
Nella stampa, per la quale la risoluzione è definita come numero di punti di stampa per pollice (dpi, dall'inglese dots per inch), le migliori prestazioni si
ottengono dalle stampanti laser e dagli apparati di composizione tipografica. La risoluzione media di una stampante laser è di 600 dpi; quella degli impianti
di composizione ordinari è di circa 1000 dpi, nel caso di stampa di alta qualità può superare i 2000 dpi.
bassa risoluzione: il termine, spesso abbreviato con Lo-Res (Low Resolution), indica un livello di precisione relativamente basso nella riproduzione dei
testi e delle immagini. Esso si riferisce solitamente alle stampanti e ai visualizzatori a scansione per computer. Nella stampa, una bassa risoluzione è
comparabile all'uscita a matrice di punti draft-quality (qualità bozza). Quando la risoluzione dello schermo non è abbastanza raffinata, le linee curve non
vengono rappresentate fedelmente, ma assumono un andamento a gradini dando luogo all'effetto dell'aliasing. La risoluzione di uno schermo dipende dal
numero di pixel di cui si compone, ossia dei singoli punti che nel loro insieme creano l'immagine. Poiché i pixel hanno forma rettangolare e ciascuno di essi
può assumere un solo colore per volta, uno schermo composto da un numero di pixel relativamente basso, ossia a bassa risoluzione, crea immagini dai
contorni spigolosi.
Pixel
Abbreviazione per Picture Element (unità elementare di immagine): ciascuno degli innumerevoli punti che, disposti ordinatamente in righe e colonne,
compongono le immagini così come vengono visualizzate da un computer o riprodotte da una stampante. Come il bit è la più piccola quantità
d'informazione che un computer può elaborare, così il pixel è il più piccolo elemento manipolabile dall'hardware e dal software per la visualizzazione e la
stampa di lettere dell'alfabeto, cifre numeriche o immagini. Nel diagramma che segue appare evidente la disposizione dei pixel che compongono una
lettera A corsiva:
Nella riproduzione di immagini in bianco e nero, ogni pixel è codificato da un singolo bit, che può assumere alternativamente il valore 1 (nero) o il valore 0
(bianco). Nella riproduzione di immagini a colori, invece, sono necessari due o più bit: due bit per quattro colori o quattro diverse tonalità di grigio, quattro
bit per sedici colori e così via. Usualmente, un'immagine a due colori è detta "mappa di bit", una a più colori è detta "mappa di pixel". Il video di un
computer è suddiviso in migliaia di unità dette pixel (dall'inglese, picture element, o "elemento dell'immagine"). Ciascuna di esse, colorata individualmente,
contribuisce all'effetto d'insieme di un'immagine completa. A seconda del numero e delle dimensioni dei pixel varia la qualità e il grado di risoluzione
dell'immagine.
Penna ottica
Dispositivo di puntamento sensibile alla luce dello schermo di un computer; l'operatore seleziona voci o comandi visualizzati sul video appoggiandovi
l'estremità della penna e azionando un apposito tasto, oppure semplicemente esercitando una leggera pressione sullo schermo, operazioni che
equivalgono a un "clic" con il mouse. La penna contiene sensori ottici che inviano un segnale al computer ogni volta che rilevano un impulso luminoso; ciò
avviene quando il fascio di elettroni che compone le immagini sul video colpisce il punto in cui è posizionata l'estremità attiva della penna ottica. Le
immagini visualizzate su uno schermo, infatti, non sono stabili: il fascio elettronico del tubo a raggi catodici in esso contenuto percorre lo schermo riga per
riga, illuminando ogni singolo punto ogni cinquantesimo di secondo. Il computer può quindi determinare l'esatta posizione della penna ottica registrando
l'istante in cui questa rileva il passaggio del fascio elettronico. La penna ottica non richiede schermi speciali, ma presenta lo svantaggio di affaticare
l'operatore se occorre sostenerla contro il video per lungo tempo. Viene utilizzata diffusamente nel campo della progettazione assistita da elaboratore
Mouse
Dispositivo di posizionamento messo a punto dalla Xerox presso il centro di ricerca di Palo Alto, in California, e divenuto popolare dopo la sua introduzione
nella dotazione standard del computer Apple Macintosh. L'introduzione del mouse e dell'interfaccia grafica di utente, che permette di scegliere e attivare
comandi sullo schermo per mezzo di un puntatore controllato dal mouse stesso, ha reso più familiare e accessibile l'uso del computer, permettendone una
diffusione su più vasta scala.
Il principio di funzionamento è uguale per tutti i tipi di mouse, che possono differire al più per forma e numero di pulsanti: quando l'operatore sposta il
mouse, una sferetta collocata sulla sua faccia inferiore mette in rotazione una coppia di rotelle disposte in direzioni perpendicolari tra loro. Il movimento
delle rotelle viene convertito in un segnale elettrico mediante il conteggio di punti conduttori o di fessure intagliate presenti su di esse. I più recenti mouse
"optomeccanici" hanno eliminato la necessità di molte operazioni di manutenzione o di riparazione collegate alla struttura dei mouse interamente
meccanici.
Mouse optomeccanico
Trascinando il mouse su una superficie liscia si fa girare una sferetta al suo interno, che a sua volta mette in rotazione, mediante due perni perpendicolari
tra loro, due dischi con una serie di fessure incise lungo il bordo. Attraverso queste fessure un LED illumina un fototransistor: quando un disco ruota,
l'illuminazione è intermittente e il transistor produce un segnale elettrico impulsivo. Il computer riceve il segnale e sposta il cursore sullo schermo.
Modem
Dispositivo che converte i segnali prodotti da un computer dalla forma digitale a quella analogica, per permetterne la trasmissione lungo linee adatte alla
conduzione di segnali analogici. I segnali digitali sono costituiti da combinazioni di cifre binarie (0 e 1), mentre i segnali analogici variano con continuità in
un range di valori possibili. I modem vengono generalmente usati per permettere la comunicazione tra computer collegati in rete tramite le linee
telefoniche. Il modem connesso al computer trasmittente converte i segnali digitali in segnali analogici (modulazione); una volta giunto a destinazione, il
segnale analogico viene riconvertito nel segnale digitale originale (demodulazione), in modo che possa essere elaborato dal computer ricevente. Il nome
"modem" deriva dalle lettere iniziali delle due parole che esprimono le due funzioni fondamentali di questo apparecchio: modulazione e demodulazione.
Per convertire un segnale digitale in forma analogica, il modem genera un'onda portante, modulata in conformità con il segnale digitale. L'onda portante è
un'onda elettromagnetica che nei sistemi di telecomunicazioni viene utilizzata per consentire la trasmissione di informazioni contenute in un altro segnale,
detto modulante. Il procedimento, con cui le informazioni, contenute ad esempio nei segnali dei programmi radio o televisivi, vengono associate a una
portante, viene detto modulazione. Esso consiste nel modificare l'ampiezza, la frequenza o la fase della portante in modo da renderle proporzionali al
relativo valore istantaneo del segnale modulante. Esistono, di conseguenza, tre tipi di modulazione per portanti armoniche: di ampiezza (AM), di frequenza
(FM) e di fase (PM). Le ultime due, ottenute con circuiti simili, presentano forti analogie. Il tipo di modulazione adottato dipende dal particolare programma
applicativo di gestione del sistema e dalla velocità del modem. Molti modem ad alta velocità, ad esempio, usano una combinazione di modulazione
d'ampiezza (variazione dell'ampiezza della portante in base alle caratteristiche dell'onda modulante) e di modulazione di fase (variazione della fase della
portante in base alle caratteristiche dell'onda modulante). Si parla di duplex totale per i modem che possono trasmettere e ricevere dati simultaneamente;
di semiduplex per i modem che possono compiere una sola operazione alla volta.
Mentre i primi modem erano voluminosi e potevano trasmettere dati a una velocità di soli 100 bit al secondo, i modem moderni sono schede da inserire nel
corpo del personal computer, che raggiungono una velocità di trasmissione di 56 kbit al secondo. Esistono inoltre modem più sofisticati, detti modem/fax,
che permettono a un PC di comunicare direttamente con un fax, ovvero di spedire e ricevere messaggi via fax.
Esistono tre diversi tipi di modulazione: di frequenza (FM, Frequency Modulation), di ampiezza (AM, Amplitude Modulation) e di fase (PM, Phase
Modulation). Essi consistono nel trattamento dell'onda portante in modo che, istante per istante, la sua frequenza, la sua ampiezza o la sua fase,
rispettivamente, varino in misura proporzionale alle relative variazioni del segnale da trasportare. La banda di frequenze, vale a dire l'intervallo entro cui
varia la frequenza dell'onda portante modulata, è diversa a seconda del tipo di modulazione. La modulazione permette di adattare segnali diversi a uno
stesso canale e di rendere la trasmissione più efficiente, con effetti di interferenza e attenuazione ridotti. Prima della ricezione, il segnale viene sottoposto
all'operazione inversa a quella di modulazione, detta demodulazione. Vedi anche Radio.
I tre tipi di modulazione:
AM
Il sistema AM fu il primo sistema di modulazione impiegato nel campo della radiofonia per trasmissioni a breve e grande distanza. Può essere utilizzato per
la trasmissione di segnali audio, nella telefonia a corrente portante e nella trasmissione di immagini fisse via cavo. La modulazione di ampiezza produce
onde la cui ampiezza è massima nei punti in cui la modulante presenta i picchi positivi, minima in corrispondenza dei picchi negativi. Il sistema di
trasmissione in AM è particolarmente soggetto a effetti di distorsione, interferenza e rumore, che non possono essere eliminati in fase di demodulazione:
diversi disturbi elettrici, prodotti ad esempio dai temporali e dai sistemi di accensione delle auto, generano radiosegnali modulati in ampiezza, che i
ricevitori AM riproducono sotto forma di rumore.
FM
Il primo sistema a modulazione di frequenza (FM) per le comunicazioni radio fu messo a punto nel 1936, dall'inventore statunitense Edwin H. Armstrong. Il
principale vantaggio di questo sistema rispetto a quello a modulazione di ampiezza consiste nell'essere meno soggetto a scariche e interferenze. Un
ricevitore FM non è sensibile a disturbi generati dai temporali, se è sintonizzato su un segnale d'intensità sufficiente: il rapporto segnale/disturbo è molto
più alto in FM che in AM. Le stazioni radio FM, inoltre, possono trasmettere in bande ad altissima frequenza (VHF), nelle quali l'interferenza in AM è spesso
molto intensa. La portata di trasmissione su tali bande è piuttosto limitata per cui stazioni che operano sulla stessa frequenza possono trovarsi a poche
centinaia di chilometri l'una dall'altra senza interferire reciprocamente. Queste caratteristiche, sommate al costo relativamente basso dell'apparecchiatura
necessaria per attrezzare una stazione radiotrasmittente FM, determinarono nel dopoguerra la rapida espansione della modulazione di frequenza. Poiché
necessita di un'ampiezza di banda maggiore della modulazione di ampiezza, ma è meno sensibile alle interferenze, la modulazione di frequenza viene
usata per trasmettere musica in stereofonia ad alta fedeltà, per il segnale audio delle trasmissioni televisive e per la trasmissione via satellite.
PM
Il sistema a modulazione di fase (PM) presenta caratteristiche molto simili a quelle della modulazione di frequenza; per questo, entrambe vengono spesso
riunite sotto la denominazione comune di modulazioni angolari. La PM e la FM si distinguono fondamentalmente per le bande di frequenza del segnale
modulato e per la maggiore stabilità della frequenza portante nella modulazione di fase rispetto a quella della modulazione di frequenza. Il sistema PM, che
consiste nella variazione della fase dell'onda portante in base alla forma del segnale modulante da trasmettere, viene spesso impiegato in alcune fasi
dell'amplificazione nei sistemi in FM.
Digitale
Nell'elaborazione di dati, digitale è praticamente sinonimo di binario, poiché i computer elaborano informazioni codificate sotto forma di combinazioni di
cifre binarie. Un'immagine, un filmato video o un segnale acustico vengono rappresentati da gruppi di bit. Un disegno o una fotografia, ad esempio,
possono essere digitalizzati da uno scanner, che converte linee e colori in combinazioni di 0 e 1, rilevando punto per punto intensità e colore della luce
riflessa. Quando si rappresentano grandezze che variano con continuità in un certo intervallo (analogiche), non è possibile rappresentare tutti i valori che
esse assumono: i valori compresi tra due valori distinti esprimibili per mezzo di due combinazioni contigue vengono quindi rappresentati mediante l'una o
l'altra di queste combinazioni. Indipendentemente dall'estensione del campo di variazione della grandezza in questione, perciò, il numero dei valori distinti
rappresentabili è limitato dal numero di bit impiegati per la codifica, ovvero la precisione con cui una grandezza viene rappresentata è limitata dal numero
totale di combinazioni possibili.
Al giorno d'oggi la digitalizzazione è una tecnica comunemente adottata in ogni campo dell'elettronica, delle comunicazioni e dell'informatica. Per realizzare
la codifica e la decodifica vengono usati circuiti detti rispettivamente un convertitore analogico-digitale e un convertitore digitale-analogico.
Sono dispositivi per la conversione dei dati dalla forma analogica alla forma digitale o viceversa. Tale conversione si rende necessaria per l'elaborazione, la
memorizzazione e la trasmissione di grandezze analogiche (che variano con continuità) con dispositivi digitali, che invece funzionano in modo "discreto".
La conversione inversa, da digitale ad analogico, è espletata dai convertitori digitale-analogico.
In un convertitore analogico-digitale (ADC, Analogue to Digital Converter), i segnali analogici applicati vengono campionati con cadenza assegnata, cioè
se ne prelevano i valori in istanti separati da intervalli di tempo fissi. I valori dei campioni vengono quindi espressi in forma binaria, come combinazioni di
0 e 1. Ne risultano dei codici che possono essere impiegati in diversi sistemi di elaborazione o di comunicazione.
Un convertitore digitale-analogico (DAC, Digital to Analogue Converter) è un dispositivo per la conversione di una combinazione digitale in un livello
analogico di tensione o di corrente. I DAC sono oggi largamente impiegati nei lettori di compact disc, nei riproduttori di nastri o videocassette e, in
generale, negli apparati per l'elaborazione digitale di segnali audio e video. La maggior parte dei DAC usa una rete resistiva, ai cui componenti viene
applicato il gruppo di bit che costituisce un dato digitale. Le resistenze incluse nella rete sono scalate secondo precisi rapporti in modo che ciascuna sia
percorsa da una corrente elettrica di intensità proporzionale al valore del bit applicato.
Il digit è un elemento di un sistema numerico, cioè una cifra. Si può parlare di "binary digit", cioè di cifra binaria (0 o 1) in un sistema di numerazione
binario; di "octal digit", cioè di cifra ottale, in un sistema di numerazione in base 8; di "decimal digit", o cifra decimale, in un sistema decimale; di
"exadecimal digit", o cifra esadecimale, in un sistema di numerazione in base 16. Quest'ultimo sistema è composto da 6 simboli, espressi con le lettere A,
B C, D, E e F, che vengono aggiunti ai 10 (da 0 a 9) del sistema in base 10.
La società dei computer
La società è stata fortemente influenzata dallo sviluppo dei computer, ma non da subito, cioè non dalla loro nascita. Infatti lo scopo principale per cui fu
messo a punto il primo elaboratore era quello di ausiliare la ricerca scientifica con calcoli veloci, precisi e senza il minimo errore. Per cui a partire dagli anni
'70 fino agli anni '80 il computer era destinato solo a ricchi centri di ricerca.
Gli anni '80 si aprirono con la nascita dei primi Personal Computer, grazie a Bill Gates e il suo socio Allen che compilarono il DOS, nel 1981, il quale
permise la diffusione delle macchine negli ambienti lavorativi; i primi computer erano dei semplici 286, caratterizzati dal processore 8086 di casa Intel che
per l'epoca era ritenuto il migliore; il lavoro diventava più veloce, non si rendevano più necessarie tante carte o gli archivi diventavano più leggeri. Tuttavia
era indispensabile formare i nuovi tecnici, con corsi adeguati per permettere il cambio di tecnologia. Adesso, pensandoci, sembra una bazzeccola, ma
allora molti impiegati persero il posto di lavoro per non essere riusciti ad adattarsi alle nuove tecniche; e si era solo agli inizi.
Ai giorni nostri la situazione è veramente cambiata: in ogni casa di media c'è un computer, considerando anche le famiglie che ancora non ne usufruiscono
e quelle che ne possiedono più esemplari. Soprattutto ne son cambiati gli usi: sono scomparsi gli usi originari e ne sono apparsi alcuni completamente
nuovi:
Il computer ormai non viene più acquistato per accelerare i tempi o per compiere calcoli senza errori, se fatta eccezione per la ricerca e la scienza in
generale, che soprattutto nel campo della medicina ormai non può fare più a meno dei PC, che addirittura compiono operazioni complicatissime da soli.
E' comparso il fattore ludico, prima occupato solo dalle consolle, ma adesso veramente surclassate dai PC domestici, a volte veramente sofisticati e
caratterizzati da potenti capacità grafiche e di calcolo; infatti un moderno videogioco necessita di una componente hardware aggiornata e potente,
schede video con grafica da capogiro e processori dedicati che elaborano le immagini, monitor ad alta risoluzione, schede audio e diffusori per vivere
l'avventura in prima persona, periferiche specializzate (volanti, pedaliere...).
Anche la produzione artistica ormai non può più fare a meno di un computer, basta pensare per esempio alla composizione di un brano audio di un
cantante o di un gruppo rock: la registrazione viene effattuata in digitale, direttamente su computer appositamente asssemblati, e non tutta in una sola
volta, come si crede: vi sono diverse piste, o tracce, che vengono filtrate (pulite dai rumori di fondo o delle apparecchiature), effettate, amplificate,
accorciate, tagliate e infine accorpate in un'unica traccia. A questo punto subentra la voce del cantante.
La vita sociale è caratterizzata da una grande influenza dei computer e soprattutto di Internet. E' la Rete il Mass-Media per eccellenza, dove le notizie
corrono in tempo reale, gratutite (o quasi) e numerose. Internet sta invadendo ogni angolo della Terra e nessuno sa come si svilupperà in futuro: certo si
sa che lo sviluppo non avrà fine. Mai.
Sembra che semza computer non siamo più in grado di stare. Ci ha talmente coinvolto che ho letto tempo fa un articolo di un professore di filosofia che
annoverava tra le categorie dell'intelletto di Kant anche il computer, senza il quale non saremmo in grado di interpretare molti dati sensibili. Come andrà a
finire?
Come tutte le grandi scoperte dell’umanità, Internet nasce per ragioni del tutto diverse da quelle per le quali si è sviluppata e affermata.
Negli anni ’60, dopo la crisi della Baia dei Porci, in piena guerra fredda, il Pentagono scoprì che il sistema di difesa missilistico degli Stati Uniti aveva un
punto debole: era sufficiente bloccare le comunicazioni tra i computer della Difesa in un punto qualunque per isolare intere zone del paese ed impedire
così la risposta agli ordini provenienti dal Comando generale. Allora i computer erano pachidermici macchinoni costosi quanto un Boeing 747, grandi come
un appartamento e mille volte meno potenti dei PC che sono sulla scrivania di milioni di persone. Malgrado ciò erano naturalmente molto più efficaci
quanto a capacità di puntamento e tempestività del migliore armiere in circolazione e, soprattutto, era sufficiente un solo comando per consentire a tutti i
missili di partire per annientare il nemico e con esso anche il resto dell’umanità. Però i computer avevano il difetto di avere bisogno di un collegamento
diretto tramite un cavo specifico (dedicato) ed era sufficiente interrompere questo cavo in un punto qualunque per isolare tutti i computer situati dopo quel
cavo. Nacque così ARPANET, progettato dall’ARPA (Advanced Research Projects Agency) del Ministero della Difesa statunitense per studiare un sistema
che consentisse ai computer di collegarsi tra di loro senza dover necessariamente passare per un collegamento dedicato. La via naturale era quella di
usare il collegamento telefonico, ma la maggiore difficoltà consisteva nel fatto che questo collegamento è spesso disturbato da fruscii e rumori vari che a
volte impediscono anche a due esseri umani di capire ciò che dicono. Questo sembrava un ostacolo insormontabile poiché la trasmissione di dati via
computer deve essere invece assolutamente precisa. E’ sufficiente, infatti, che un solo carattere non sia comprensibile per rendere inutilizzabile tutto il
testo trasmesso. La tecnologia elaborata da ARPANET fu quella della commutazione di pacchetto, che consiste nello scomporre i dati da trasmettere in
piccole unità composte ciascuna da pochi dati da inviare separatamente ad un computer in grado di leggere e ricomporre il messaggio. In questo modo
l’eventuale disturbo per una parte della trasmissione non rende incomprensibile l’intera conversazione ma induce il computer ricevente a chiedere la
ritrasmissione del pacchetto mancante. Il primo tentativo di trasmissione avvenne un giorno del 1969 tra due computers uno dell’Università di S. Barbara e
l’altro dell’Università dell’Utah. Quello che segue è il resoconto di quello storico evento in un’intervista ad uno dei protagonisti il prof. Kleinrock:
"Abbiamo digitato al computer la lettera "L" e chiesto al telefono: vedete la "L" ?
"Si, vediamo la "L," fu la risposta.
"Abbiamo digitato, allora, la O, e chiesto, "vedete la "O." ?
"Si, vediamo la O."
"Allora abbiamo digitato la G, e il sistema si sfasciò"...
" Così è cominciata la rivoluzione"...
Il grande vantaggio della trasmissione dati via telefono consiste nel fatto che esistono infinite vie per effettuarla, a volte anche con effetti paradossali : per
esempio per connettere due computer di Milano è possibile che la trasmissione passi per..... Londra o Istanbul! Tutto ciò, però, non comporta alcun ritardo
significativo nella trasmissione poiché i dati viaggiano a velocità enormi e all’atto pratico il percorso seguito è del tutto ininfluente. Nel 1973, poi, venne
elaborato il TCP/IP (Transmission Control Protocol/Internet Protocol) che consentiva a tutti i computer di intendersi tra loro anche se programmati con
linguaggi differenti. Il TCP/IP venne reso immediatamente obbligatorio per tutti i computer connessi in ARPANET ed è tuttora lo standard usato per la
connessione via Internet. Ad ARPANET partecipavano oltre ai vari enti militari interessati al programma di difesa anche svariate università e centri di
ricerca che, come abbiamo visto, hanno dato un impulso decisivo per lo sviluppo della tecnologia della rete. Mano a mano, malgrado le proteste dei militari,
i professori e gli studenti delle università connesse alla rete cominciarono a scambiarsi oltre alle informazioni tecniche anche messaggi personali ed a
inserire notizie sui corsi di studio e le altre iniziative della propria università. Altre università chiesero – e per lo più ottennero - l’accesso alla rete per poter
contribuire allo sviluppo tecnologico della struttura ma incrementando, così, il numero di utenti della rete anche per fini non propriamente istituzionali. Nel
1983 i militari decisero di uscire da una rete dove ormai si parlava di tutto tranne che dei loro affari e crearono MILNET una rete dedicata esclusivamente
alle loro esigenze. Nel frattempo tutte quelle istituzioni universitarie, enti vari, società private o singoli che avevano chiesto e non ottenuto l’accesso ad
ARPANET avevano scoperto che in barba ai divieti era estremamente semplice connettersi tra di loro e creare una rete di computers che poteva
comunicare con quelli di ARPANET purché utilizzasse lo stesso protocollo TCP/IP. La CIA per un po’ di tempo controllò tutte le comunicazioni che
avvenivano tra i computers ma quando nel 1989 il numero degli utenti raggiunse le 500.000 unità decise di smettere anche perché il controllo era divenuto
praticamente impossibile. Nasce così Internet, ovvero la rete delle reti nella quale confluirono ARPANET, NSFNET (la rete della National Science
Foundation) e tutti i privati ed altre istituzioni che avevano creato reti virtuali connettendosi tra di loro. Da allora sono passati solo otto anni, ma è come se
ne fossero trascorsi ottanta. Quei cinquecentomila utenti sono divenuti oltre cento milioni e crescono con progressione geometrica stracciando
regolarmente tutte le previsioni. Con lo sviluppo del WWW (World Wide Web) dal 1994 in poi centinaia di migliaia di aziende si sono gettate su Internet
attirando milioni di utenti che a loro volta stanno coinvolgendo altri milioni di aziende. Internet ha ormai superato la massa critica, vale a dire quella
dimensione che comporta l’autoalimentazione del proprio sviluppo e pertanto la sua crescita è divenuta inarrestabile. Ogni nuovo utente, infatti, attira
nuove aziende e queste a loro volta attirano nuovi utenti in una spirale di crescita che procede al ritmo del raddoppio del numero di utenti ogni anno.
Internet può essere comparata ad una tela di un ragno: è composta di tanti fili connessi tra di loro a mezzi di nodi posti alle intersezioni di quei fili. Si può
immaginare che un ragno particolarmente laborioso abbia confezionato una gigantesca rete estesa più o meno fittamente su tutta la terra nella quale si
trovano decine di milioni di nodi. Se al posto di ogni nodo si mette un computer si ha un’idea di come funziona Internet. Se ogni computer acceso fosse
segnalato da una lampadina colorata, sorvolando di notte la terra assisteremmo allo spettacolo fantasmagorico di milioni di luci colorate che si rincorrono
per tutto il pianeta
accendendosi e spegnendosi senza posa. La copertura del globo terrestre, a parte vaste zone dell’Africa ed alcune aree del Sud America e del Medio
Oriente, è praticamente totale. Attualmente il collegamento alla rete avviene esclusivamente a mezzo di una rete di cavi connessa alla rete telefonica
mondiale, anche se ci sono personal computer portatili in grado di collegarsi tramite un’antenna parabolica che riceve dati da un satellite.
Con il satellite o con la creazione delle autostrade informatiche, ovvero di una rete di cavi ad altissima velocità in grado di portare quantità crescenti di
informazioni da una parte all’altra della terra, sarà stato creato un elemento decisivo per la costruzione di un effettivo mercato globale ed Internet sarà
sottratto definitivamente alla tentazione di qualche Stato di imporre tasse o restrizioni all’accesso. Infatti, qualunque azienda o prestatore di opera avrà la
possibilità di scegliere il luogo fisico dove effettuare la propria attività o prestazione senza doversi muovere da casa e praticamente senza costi. Per
continuare a mantenere gli attuali livelli di pressione fiscale gli Stati dovranno allora imporre una "tassa sulla vita" ai propri cittadini, svelando così la brutale
natura oppressiva del sistema dietro la maschera pseudo democratica, oppure dovranno ridurre le tasse al livello necessario per consentire alle imprese
nazionali di restare sul mercato globale e liberalizzare completamente le proprie economie. Il problema dello Stato sociale dovrà essere affrontato da una
prospettiva completamente diversa se si vuole evitare l’esplosione di violenti conflitti sociali, così come pure la questione del prelievo fiscale dovrà essere
affrontata in maniera da non gravare più sulla produzione e sul lavoro ma soltanto sulla rendita finanziaria
Gli strumenti che servono ad un normale utente per utilizzare la Rete mondiale sono in continua evoluzione, essendo strettamente collegati all'hardware di
un personal computer o alla telefonia.
In generale comunque serve un Personal Computer dotato di un processore di media fascia, non è necessario essere in possesso infatti dell'ultimo
ritrovato tecnologico dato che la velocità di connessione dipende solamente dalla possibilità di inviare e ricevere dati, compito che spetta al modem e alla
linea telefonica; anche la RAM non è richiesta in quantità eccessive, bastano anche 32 Mbyte, ormai lo standard minimo nella media dei computer
domestici; occorre invece puntare molto sul modem, e qui la scelta si fa molto ampia: c'è chi preferisce avere una velocità di connessione più elevata ma
pagare un doppio traffico alla Telecom (è il caso dei modem ISDN) oppure chi si limita ad un modem analogico a 56 Kbit per secondo, che permette una
discreta velocità di trasmissione ma che limita molto il download di materiale. Scendere con la velocità di connessione (utilizzando modem a 38 Kbit o 19
Kbit) significa rendere lenta e inefficace la navigazione, anche se si risparmia di moltosulla spesa dell'apparecchio, entrato ormai fuori commercio. Invece è
importante che il modem abbia lo standard V.90, indispensabile per il corretto invio e la corretta ricazione di dati. Una scheda audio è invece importante per
l'eventuale utilizzo da parte dell'utente di formati audio di qualità, come MP3 o WAV ad alto livello di campionamento; una scheda audio di bassa fascia
comprometterebbe la precisione e la qualità del suono. Per quanto riguarda la scheda video l'utilizzo di Internet non richiede per il momento la necessità di
possedere strumenti di codifica video particolarmente potenti, data l'esigua capacità di trasmissione della rete telefonica, che non permette la
visualizzazione di file di grosse dimensioni. Un accessorio che in questi tempi si sta affermandonel mondo di Internet è la Web Cam, una videocamera
digitale che permette l'invo di fotografie o di effettuare videoconferenze, ancora però poco performanti e di scarsa qualità per i limiti fisici della rete.
Una volta in possesso dei requisiti minimi trichiesti si è pronti per immergersi nella Grande Rete!
Per navigare in Internet occorrono tuttavia ancora due importanti strumenti: innanzitutto un gestore che permette di accadere alla Rete Mondiale, e poi un
programma che permette la codifica dei pacchetti di dati e la loro corretta visualizzazione su monitor. Nel primo caso stiamo parlando dei Provider, nel
secondo dei Browser.
Un Provider è di solito una società che utilizza dei server, grossi computer dalla memoria impressionante, collegati alla Rete; il compito del Provider è
quello di fornire un accesso telefonico agli utenti domestici che lo richiedono, fornendo un software per il collegamento e delle password. A questo punto è
necessario una precisazione; vi sono due tipi di Provider: quelli che richiedono un abbonamento annuo alla loro linea e quelli che offrono un servizio
gratuito. Nel primo caso il costo annuale è più elevato, costituisce il principale guadagno del Provider e gli strumenti di connessione son più efficienti; nel
secondo caso il guadagno del Provider consiste in una percentuale della tariffa telefonica utilizzata dall'utente; per cui più utenti utilizzano il Provider più
guadagna. Da questo fatto si ricavano due ovvie conseguenze:
I Provider a pagamento sono meno trafficati, più veloci ma molto più costosi di quelli a servizio gratuito;
I Provider a servizio gratuito tentano in ogni modo di attirare lienti e di farli stare il più tempo possibile collegati ad Internet, dato che in ciò consiste il loro
guadagno.
Il Browser invece è un programma relativamente piccolo come dimensione occupata sull'Hard Disk che permette la traduzione dei pacchetti di dati che
giungono dalla via telefonica; i due più conosciuti sono MS Explorer e Netscape, che solo dopo molte versioni hanno deciso di mettere in comune alcune
delle loro caratteristiche più importanti, andando così verso uno standard. Entrambi sono gratuiti.
Per mandare una lettera, dobbiamo comprare la carta e la busta, scrivere il testo (ma questa è un’operazione che dovremo comunque sempre fare!),
comprare il francobollo dal tabaccaio facendo bene attenzione al peso, trovare una buca delle lettere, imbucare ed aspettare almeno una settimana per
cominciare a sperare che il messaggi sia giunto a destinazione. Il tutto con una spesa di almeno cinquemila lire, oltre al tempo perso per le varie
operazioni.
Con l’E-mail è possibile mandare una lettera di qualunque dimensione, magari allegandoci una vostra foto, un libro, un brano musicale o un omaggio
floreale virtuale, spendendo al massimo venti lire ISTANTANEAMENTE - poiché non è necessario acquistare alcunché - e soprattutto con la certezza che il
destinatario riceverà il vostro messaggio in meno di un secondo, ovunque si trovi nel mondo (ovviamente purché abbia un indirizzo E-mail).
Il problema della sicurezza delle trasmissioni su Internet è ormai superato poiché ci sono sistemi di segretezza assolutamente efficienti. Per cercare infatti
di intercettare una lettera elettronica è necessario vigilare giorno e notte, intercettarla esattamente nel momento in cui la si spedite nel lasso di tempo che
impiega per il viaggio (meno di un secondo), decifrare la chiave numerica che accompagna la trasmissione (una possibilità su 1000 miliardi circa), decifrare
l’altra chiave per decrittare il testo e poi finalmente leggere il messaggio.
Vediamo ora come funziona la gestione dell’E-mail.
Tutti gli indirizzi E-mail sono composti da due parti collegate dal segno @. La prima, a sinistra del segno, serve ad identificare l’utente mentre la seconda, a
destra del segno serve ad individuare il computer presso il quale quell’utente ha la propria casella postale (Mail box). La casella postale elettronica non è
altro che uno spazio di memoria messo a disposizione da un server. Gli indirizzi possono contenere anche il vostro nome e cognome oppure possono
essere sigle dalle quali non si può risalire ai vostri dati personali. C’è un sistema per inviare messaggi assolutamente anonimi utilizzando siti Web dove il
vostro indirizzo viene mutato in altro anonimo e da lì la posta viene spedita al destinatario che non conoscerà mai il vostro indirizzo. Ci sono poi numerosi
siti dove è possibile ottenere gratuitamente un indirizzo E-mail. Come descritto sopra l'e-mail durante il tragitto viene cifrata, divisa in piccoli pacchetti per
evitare errori o mancanza di dati e ricomposta e ricifrata dal computer ricevente. Tutto questo in circa 2 secondi. Allegato al testo è anche possibile inviare
un file ma in questo caso il tempo d'invio può salre vertiginosamente, così come quello di ricezione.
Attualmente l'e-mail è, dopo il telefono (ma se vogliamo essere pignoli è proprio grazie al telefono che si invia la posta elettronica!), il più diffuso mezzo di
comunicazione a distanza sulla Terra.
Ogni commerciante deve mettersi l’animo in pace: con ogni probabilità nel giro di qualche anno dovrà chiudere bottega e mettersi a trafficare su Internet
per vendere i prodotti. Tranne che per alcune merci, infatti, la vendita via Internet è molto più sicura, economica e redditizia sia per gli acquirenti che per i
venditori. Pensate che nel 1999 il 35% delle auto usate vendute negli Stati Uniti sono transitate via Internet e che gli imprenditori del settore prevedono che
nel 2003 l’90% delle autovetture americane sarà venduto via Internet, con soddisfazione generale sia degli acquirenti che dei venditori. Il motivo è il
seguente: se si vuole comprare un’auto usata di un certo tipo, ci si deve recare da diversi rivenditori o concessionari, trovarla, magari provarla perdendo un
sacco di tempo e senza avere alcuna certezza di aver speso il prezzo giusto per quel prodotto, poiché il metro di comparazione è la limitata selezione che
avete potuto fare tra i rivenditori della vostra città. Se invece si manda un’E-mail ad un sito organizzato per le vendite di auto, al quale fanno riferimento
numerosi rivenditori del vostro paese, in pochi minuti è possibile ottenere una vastissima gamma di offerte per il tipo di auto che avete richiesto e la vostra
capacità di scelta incrementa notevolmente. Per i rivenditori la vendita tramite Internet comporta un notevole risparmio di personale del salone di
esposizione e di spese di pubblicità che possono allo stesso tempo fargli abbassare i prezzi ed incrementare i suoi guadagni.
Oltretutto, stando su Internet, l’offerta del venditore non è limitata a quelli che passano davanti al suo negozio o che vedono la sua pubblicità, ma
raggiunge un numero enorme di persone in tutto il mondo a costi praticamente bassissimi. E’ chiaro che la vendita tramite Internet è una tecnologia
superiore rispetto al tradizionale negozio, poiché comporta vantaggi sia per l’acquirente che per i venditori e ne segue, pertanto, che Internet sostituirà in
breve tempo i normali canali di vendita. Le stesse considerazioni valgono, naturalmente, per le attività di produzione e vendita di prodotti artigianali, che già
oggi fanno fatica a raggiungere il pareggio di bilancio gravati dagli onerosissimi costi per l’affitto dei locali, per le utenze etc. per fornire i propri prodotti alla
sola clientela che passa davanti alla loro bottega. Andare su Internet significa per molte piccole aziende poter ridurre notevolmente i costi, allargare
enormemente la propria potenziale clientela ed allo stesso tempo offrire gli stessi prodotti a prezzi inferiori con un margine di guadagno più elevato.
Per molte piccole aziende italiane, in bilico tra la chiusura e l’evasione fiscale come unico sistema per reggere i costi, lo spostamento su Internet
rappresenta l’unica soluzione seria possibile. Anche la grande distribuzione è destinata a finire in rete in tempi brevi. Per mettere su un supermercato di
medie dimensioni occorre un investimento di un paio di miliardi e costi fissi per l’affitto ed i 40/50 dipendenti necessari di almeno altrettanto. Mettendosi a
vendere su Internet e consegnando a casa la merce scelta, l’investimento si riduce ad un quarto, i costi del personale a un ottavo, quelli dell’affitto del
locale pure ad un quarto e i supermercati possono offrire un servizio migliore a prezzi più bassi e guadagnare di più!
Lo stesso discorso vale per le attività professionali e per i relativi servizi. A parte l’aumento di clientela potenziale, Internet consente al professionista di
gestire la propria attività dal luogo che meglio gli aggrada e di risparmiare notevolmente sulle spese per la gestione dell’ufficio.
Ci vuole molto ad immaginare un futuro in cui la produzione di merci sarà possibile in qualunque posto del mondo lavorando da qualunque altra parte del
mondo e senza costi aggiuntivi?
Su Internet c’è la libreria più grande del mondo, con un magazzino di oltre 2.500.000 titoli che vende al 30% di meno rispetto alle librerie tradizionali e
consegna in tre giorni qualunque titolo del proprio catalogo in qualunque parte del mondo. Si trova al seguente indirizzo: www.amazon.com ed è possibile
ordinare qualunque libro e vederselo recapitare a casa propria entro due o tre giorni
Esplorando i motori di ricerca italiani si scopre che anche qui è possibile comprare via Internet tutto (o quasi) quello che vi serve, soprattutto in materia di
computers e suoi accessori.
Insomma, la nostra vita è destinata a cambiare radicalmente con l’evoluzione della rete: Il segreto è essere intelligenti, capire subito i veri affari ed essere
lungimiranti, investire rischiando un pò. Per quelli invece che pensano di poter restare fuori del mercato globale di cui Internet è solo l’inizio è riservato
soltanto un futuro di decadenza e impoverimento.
Ogni computer connesso alla rete costituisce un nodo o sito o host ed il modo per identificare ciascun terminale nel sistema è quello di dargli un numero
identificativo generalmente composto da dieci o undici cifre separate da punti del tipo 194.54.345.120 che si chiama indirizzo I.P., ovvero "Internet Protocol
address". Per raggiungere il computer che ci interessa non dobbiamo, però, ricordare il numero I.P., né segnarlo sulla nostra rubrica come facciamo per i
numeri telefonici. Infatti, la maggior parte dei siti Internet ha anche un nome come identificativo e digitando questo nome i computers riescono a trovare il
numero I.P. giusto. Così per raggiungere il sito del Comune di Roma non è necessario che scriviate il numero I.P. ma sarà sufficiente digitare il nome del
sito che per il Comune di Roma è http://www.comune.roma.it/ . L’indirizzo del comune di Roma è preceduto da una sigla, http://, che sta ad indicare il tipo
di connessione che il vostro computer deve cercare. La sigla http è l’acronimo di Hyper Text Transfer Protocol e dice al vostro computer che deve
apprestarsi a prendere delle immagini e dei testi costruiti con il sistema WWW, il WORLD WIDE WEB
Il WWW è stato creato in Europa, a Ginevra presso il laboratorio di fisica del CERN nel 1991. E’ il sistema a mezzo del quale il vostro navigatore è in grado
di trovare e visualizzare sia i testi che le immagini ed i suoni in altre pagine che operano nello stesso ambiente. Prima del WWW, in Internet le
comunicazioni avvenivano praticamente solo a mezzo di testi e la trasmissione di immagini e suoni era molto lunga e complessa. In pratica Internet veniva
usato quasi esclusivamente per l’E-mail e per le News. Dopo la creazione del WWW, Internet, che nel 1993 contava 20 milioni di utenti, ha avuto una
crescita ancora più spettacolare. Con la prima versione di un navigatore, Mosaic, il numero delle pagine e degli utenti raddoppiò in poco meno di un anno,
e il creatore di Mosaic, un californiano di nome Andreesen, elaborò Netscape, un programma molto più completo e fondò la Netscape Corporation, una
società oggi quotata in borsa ed in continua crescita. Da allora il WWW è cresciuto dentro Internet al punto, ormai, da identificarsi con la rete. Il vantaggio
della trasmissione di suoni, immagini anche in movimento oltre che del testo è evidente. A chiunque è consentito esporre non solo le proprie idee ma
anche i propri prodotti le immagini della propria città o magari della propria famiglia, fare ascoltare la musica preferita, insomma dare agli altri, del tutto
gratuitamente, il meglio di sé. E’ questo il punto di maggior vantaggio del WWW, il fatto che la stragrande maggioranza delle pagine in rete hanno l’accesso
gratuito. Potete girare per innumerevoli siti e scoprire poeti straordinari, fantasie cromatiche sbalorditive, composizioni musicali mozzafiato! La caratteristica
principale dei siti WWW, oltre a quella di consentire una comunicazione integrale di testi, suoni ed immagini, è che ciascuna pagina consente un rimando
automatico ad altre pagine WWW, sia all’interno dello stesso sito che verso altri siti. Questa caratteristica, che ha fatto definire il testo in WWW un
"ipertesto", rende particolarmente agevole e piacevole la navigazione tra le pagine di Internet. Praticamente in ogni pagina di Internet troverete un
collegamento (Link) ad altre pagine del Web, cosicché potrete navigare da un sito ad un altro, cambiando continuamente argomento, utilizzando solo il
vostro mouse per cliccare sui links che mano a mano sceglierete. Un’altra curiosità stuzzicante del WWW è che consente di copiare sia le pagine che
vedete che ciascuna delle immagini e dei suoni che trovate senza limiti di copyright. Questo perché sin dall’inizio tra gli utenti di Internet si è costituito un
clima di solidarietà e di amicizia per cui le scoperte di uno sono sempre state a disposizione di tutti i navigatori, e questo spirito è rimasto sempre vivo.
Quello del lavoro è un argomento doloroso da affrontare dal lato dei computers che hanno reso obsoleti tanti mestieri e molti di più ne manderanno in
soffitta nel prossimo futuro. C’è però il rovescio della medaglia, ovvero tutta l’infinita gamma di mestieri che si sono creati intorno ai computers ed alla rete
di Internet. Fatto sta che la rete è destinata a modificare in maniera radicale il nostro modo di affrontare il lavoro e con esso la nostra vita. La prima
considerazione da fare è che Internet permette in maniera concreta ed economica il tele-lavoro, vale a dire la possibilità di svolgere le proprie mansioni per
l’azienda presso la quale si lavora da casa invece di doversi spostare tutte le mattine per raggiungere l’ufficio o la fabbrica. Il lavoro manuale tende a
scomparire nelle industrie e nei servizi poiché viene sostituito da robot sempre più efficienti ed economici, così è sempre meno necessaria la presenza
fisica per effettuare una prestazione che può essere ben svolta in qualunque altro luogo se il risultato della prestazione viene tempestivamente comunicato
all’ufficio che l’ha richiesta. Con Internet questo è possibile, così come è possibile stare in contatto continuo con il proprio ufficio a costi bassissimi che
tendono a diventare nulli. E’ quindi economicamente conveniente smantellare i grandi uffici che costano per manutenzione, affitto, utenze etc. e distribuire
il lavoro tra gli impiegati liberandoli dall’obbligo di eseguire la prestazione di lavoro nell’ufficio centrale. Oltretutto con il tele-lavoro c’è anche un grande
risparmio di costi sociali, per la notevole riduzione del traffico che comporta, la diminuzione dell’inquinamento, degli incidenti stradali e del tempo perso in
viaggi divenuti inutili. Già sin d’ora molte aziende statunitensi si stanno riconvertendo al tele-lavoro e persino alcune aziende italiane hanno cominciato a
farlo. D’altra parte i vantaggi sono enormi, soprattutto di tempo e denaro.
Quello che ci riserva il mondo dell'informatica sarà sempre più connesso alla realtà di Internet, che sta assumendo sempre più l'aspetto della linfa vitale
delle comunicazioni nel Mondo. Senz'altro per quanto riguarda la tecnologia è da tenere presente la legge di Moore, che afferma un andamento
esponenziale del progresso tecnologico che ci porterà in miglioramenti soprattutto di velocità e di quantità di dati a disposizione. Un esempio: 10 anni fa i
dati venivano passati tramite floppy disk da 1,4 MB, abbastanza lenti e rovinabili facilmente; poi hanno preso il sopravvento i CD, 650 MB di spazio, veloci
e resistenti; adesso si stanno affermando i DVD, delle stesse dimensioni ma contenenti per adesso 17 GB, 17000 MB velocissimi e quasi indistruttibili. Per
quanto riguarda Internet e le velocità di connessione si è passati da pochi bit per secondo allo standard dei 56000 bps, arrivando alla tecnologia ADSL con
640000 bps in download e 128000 bps in upload.
La miniaturizzazione dei macchinari la fa da padrone, soprattutto per quanto riguarda i computer portatili e i microprocessori: per i primi le componenti più
piccole hanno permesso di raggiungere prestazioni elevatissime, per i secondi le nuove tecnologie a 0.18 micron (al posto di 0.56) hanno permesso di
ridurre spazio, resistenza e aumentato le prestazioni.