Specifiche tecniche tratte da “Scott Mueller, Upgrading and Repairing PCs, Seconda Edizione, QUE Corp. USA, 2001” Specifiche dei processori tratte da: Intel Website: http://www.intel.it AMD Website: http://www.amd.com Significato delle sigle tratto da: The PC Guide Website: http://www.pcguide.com 1 L’INFORMATICA NELL’ERA DEL PERSONAL 7 Un personal su ogni scrivania 7 Struttura logica e fisica dell’informazione 8 L’INTERPRETAZIONE BINARIA 9 Bit e byte 9 Byte, Kilobyte e Megabyte 10 La rappresentazione esadecimale 11 IL PERSONAL COMPUTER 12 Desktop 12 Portatili 13 Notebook 13 Pen book 14 Palmtop 14 Gli altri computer 14 Hardware e software 15 COME SCEGLIERE UN PERSONAL COMPUTER 16 L'ORGANIZZAZIONE DELLE INFORMAZIONI 19 Una strategia per l'organizzazione GUASTI, ASSISTENZA E CRIMINI 20 23 L'assistenza 23 L'origine dei guasti 24 Le precauzioni 25 In caso di guasto 25 I virus 26 Il crimine informatico 27 Il backup 28 2 Programmi di protezione 29 Le controindicazioni alla protezione 29 ASSEMBLARE IL PROPRIO PERSONAL 30 CPU 32 Mother board 32 RAM 32 Costi 33 IL MICROPROCESSORE 34 Caratteristiche tecniche 34 Microprocessori RISC 35 Considerazioni finali 36 Clock 36 LA MEMORIA 37 Memoria ROM 37 Memoria RAM 37 Volatilità della RAM 38 Dimensione della RAM 38 Memoria virtuale 39 LA SCHEDA MADRE 40 Processore DMA 41 Porte Esterne 42 USB 43 FireWire 43 Firmware e BIOS 43 Flash-ROM e Boot-ROM 44 LA SCHEDA VIDEO 45 Il Processore Grafico (GPU) 45 LA Video RAM 45 Il RAMDAC 46 3 LA SCHEDA AUDIO 47 LE UNITÀ DI MEMORIA DI MASSA 48 Caratteristiche tecniche 48 Dischi rigidi 49 I controller IDE e SCSI 49 I dischi fissi 51 Compact Disc 52 Supporti di memoria a registrazione ottica 53 Masterizzatori CD-R 54 Masterizzatori CD-RW 55 Digital Versatile Disk (DVD) 56 Considerazioni finali 57 La standard SCSI 58 MODEM E TELECOMUNICAZIONI 59 Modulazione e demodulazione 59 Protocolli 59 Commutata e ISDN 60 Linee dedicate 60 Caratteristiche tecniche 60 Indipendenti ed a schede 61 Modem/telefax 61 Considerazioni finali 62 Collegamenti a grande distanza 63 SCHEDA DI RETE 64 IL MONITOR 65 Monitor CRT 65 Monitor LCD 66 Considerazioni finali 66 Le radiazioni 68 4 Schermi touch screen 68 Data show 69 Videoregistratore 69 LA TASTIERA 70 Caratteristiche tecniche 70 Considerazioni finali 72 IL MOUSE 73 Mouse senza filo 74 La track ball 74 La touch pad 74 La tavoletta grafica 75 Il joystick 75 LE STAMPANTI 76 Evoluzione delle stampanti 76 Stampanti a matrice di punti 78 Stampanti a caratteri 78 Stampanti a getto di inchiostro (ink-jet) 79 Stampanti laser 80 Altre stampanti a colori 80 La compatibilità 81 Postscript 81 Costi accessori 81 Plotter 82 SCANNER E FOTOCAMERE DIGITALI 83 Scanner a ripresa in piano 83 Scanner a rullo 84 Scanner a tamburo 84 Scanner su stativo 84 Scanner manuale 84 5 Caratteristiche tecniche degli scanner 85 Consigli per l’uso degli scanner 86 La fotocamere digitali 87 I dorsi digitali 88 LA RETE LOCALE 89 Software di rete 90 Caratteristiche tecniche 90 Localizzazione delle postazioni 90 Topologia 91 Metodologia 91 Tecnologia 92 Protocollo 92 Sistema operativo di rete 92 Componenti della rete 93 Considerazioni finali 95 6 L’informatica nell’era del personal L’informatica è la scienza dell’informazione. Ma nessuna definizione è, oggi, più lontana ed insieme più vicina di questa. Più vicina perché al suo centro si trova effettivamente l’informazione, non più concentrata in grosse quantità e dispersa in pochi grandi elaboratori, ma diffusa in centinaia di milioni di piccoli computer. Ogni personal ha la sua quantità di informazioni locali, quelle che il suo utilizzatore vi introduce, e può attingere al complesso delle informazioni, siano esse a livello aziendale tramite la rete locale che connette i singoli personal fino a formare una entità unica, siano esse a livello mondiale grazie ai servizi telematici disponibili sempre ed ovunque. Più lontana perché della scienza ha perso tutta la struttura complessa e da iniziati che l’aveva permeata sin dall’inizio. Grazie ai nuovi sistemi operativi, chiunque può avvicinarsi ad un personal ed iniziare ad usarlo senza dover assistere a corsi introduttivi o seminari di informatica, senza imparare linguaggi di programmazione, senza dover ricorrere a manuali di centinaia di pagine. E’ sufficiente il manuale che è a corredo della macchina e quello a corredo di ciascun programma. Spesso, nel caso di sistemi operativi di tipo grafico, anche quelli sono quasi superflui, a meno che non si tratti di programmi altamente specializzati. La gran parte dei programmi attualmente commercializzati per i personal è stata realizzata con una filosofia “user friendly”, cioè amichevole per l’utilizzatore. Tutti i comandi disponibili vengono visualizzati sullo schermo, con evidenziati i tasti che li mettono in opera. I comandi, la loro struttura e, soprattutto, la loro logica di funzionamento sono comuni fra i diversi programmi. Passare da uno all’altro, per scrivere una lettera o per aggiornare una situazione fiscale, non provoca più il disorientamento e gli errori di una volta. Un personal su ogni scrivania “Un personal su ogni scrivania”: è questo un sogno che solo 15 anni fa apparteneva ad uno sparuto gruppo di programmatori statunitensi. Si riunivano in club per discuterne, dopo il lavoro o dopo lo studio, e per scambiarsi le ultime esperienze. Alcuni di loro lavoravano in grandi aziende ai progetti per grandi elaboratori per centri calcolo, mentre a casa armeggiavano intorno ad un piccolo computer costruito da loro stessi con materiale trovato nei negozi di componenti elettronici di seconda mano. Alcune volte il piccolo elaboratore, senza alcuna possibilità di utilizzazione pratica, veniva costruito in qualche diecina di esemplari e venduto agli amici per pochi dollari. Nel giro di pochi anni, alcuni di questi appassionati sono diventati proprietari di aziende informatiche che hanno succursali, stabilimenti di produzione ed uffici commerciali in tutto il mondo. Il personal computer si è rivelato uno dei settori industriali più vitali, in più rapida espansione ed evoluzione, in eccezionale rinnovamento tecnologico. Tuttavia nella visione di questi giovani appassionati non c’era solamente una prospettiva commerciale. Anzi, nella maggior parte dei casi l’idea di diventare ricchi era del tutto impensabile: la loro spinta ideale non era inferiore a quella di tanti loro coetanei dell’epoca che cercavano di cambiare il mondo. Era però una visione molto particolare. “Un personal su ogni scrivania” era uno slogan che non si collegava al fatturato industriale di una azienda produttrice di computer, bensì alla possibilità, per ciascuno, di utilizzare la potenza eccezionale di un computer nell’archiviare, rintracciare, elaborare le informazioni. In un mondo nel quale chiunque avrebbe potuto accedere a tutti i dati, a tutte le notizie, a tutte le informazioni esistenti, scambiarle via telefono con chiunque altro al mondo, far circolare istantaneamente ed in modo inarrestabile idee ed opinioni, nessun governo avrebbe potuto opprimere o ridurre le libertà. Il pericolo che questi appassionati vivevano come ossessione, era costituito dalle grandi aziende che, in poche, avevano il monopolio dell’informatica. L’incubo era lo spettro di grossi elaboratori, contenenti informazioni riguardanti la vita privata dei cittadini, gestiti dai servizi segreti. Avevano capito che l’informazione, nel mondo moderno, è potere. Lasciarla concentrata in mano ad industriali, politici e militari, voleva dire lasciargli un immenso potere. 7 Dopo pochi anni il sogno si è avverato, e si è trasformato in un grande affare da migliaia di miliardi di dollari. Ironia della sorte, ne hanno tratto un grandissimo vantaggio quelle stesse grandi aziende informatiche costruttrici dei grandi elaboratori elettronici che facevano così tanta paura. Gli stessi piccoli laboratori, impiantati nei garage, sono diventati aziende multinazionali. Molti di quegli idealisti di 20 anni fa, ora sono multimiliardari e dedicano parte del loro tempo, o vi hanno dedicato la vita abbandonando il lavoro, ad attività benefiche ed a fondazioni a scopi sociali. Struttura logica e fisica dell’informazione Esistono, tuttavia, alcuni concetti base, in comune con la tradizionale scienza informatica, da chiarire innanzi tutto. Nei computer abbiamo due tipi di informazione: il programma (o applicativo) e l’archivio di dati (o file). Il programma è costituito da una serie di codici di comando, scritti in un linguaggio che il computer sia in grado di comprendere. Il linguaggio di programmazione è altamente sintetico e complesso, ed utilizza le capacità elaborative del computer. Questo, da parte sua, deve poter comprendere il linguaggio, interpretare ed eseguire i codici di comando, quindi proseguire nel programma. Un file è il risultato del lavoro compiuto dall’utente con un programma. L’unità più piccola dell’archivio è il singolo carattere, lettera, numero e segno che sia. L’archivio, con tutto l’insieme dei dati che contiene, non è utilizzabile di per se stesso, se non tramite la presenza di un programma. L’archivio può essere di grosse dimensioni, come la banca dati fiscale sui contribuenti italiani, oppure piccola, come la lettera scritta ad un amico. Questa è la struttura logica dell’informazione, la struttura fisica è invece ben diversa e si basa sulla natura dell’elettromagnetismo. Lo stato elettromagnetico della materia può essere solamente positivo o negativo. In certe sostanze questo stato può essere facilmente alterato, ma una volta stabilito viene conservato inalterato finché non viene di nuovo mutato da una forza esterna. L’esistenza dell’informatica è dovuta alla concezione della matematica binaria, per la quale non esistono dieci numeri, ma due soli: lo zero e l’uno. Prendiamo alcune porzioni di materia magnetizzabile ed in alcune ne cambiamo lo stato elettromagnetico in positivo, mentre altre le rendiamo negative. Accettiamo di definire lo stato positivo come un 1, e quello negativo con uno 0. Ecco che possiamo esaminare la materia e ricavare degli 1, da quelle porzioni che abbiamo risultano positive, e degli 0, da quelle che risultano negative. L’informatica degli albori era proprio così: i computer erano costituiti da gigantesche griglie di anelli metallici collegati da fili. Alcuni erano magnetizzati ed altri no, e la diversa successione di polarizzazioni dava origine a lunghe sequenze di 0 ed 1 che rappresentavano i dati. La forza che magnetizzava gli anelli metallici era il flusso di elettroni dell’energia elettrica; le diverse polarizzazioni degli anelli erano rivelati dal flusso di elettroni che la polarizzazione negativa emette e quella negativa no. Tuttavia la polarizzazione degli anelli non era permanente: esistevano apposite schede, in cartone, nelle quali venivano praticati dei fori che rappresentavano gli anelli da magnetizzare, chiamate schede perforate. La grande rivoluzione dell’informatica, che ha portato alla potenza attuale degli elaboratori, è dovuta al rapido progresso tecnologico. Da una parte gli anelli metallici sono stati sostituiti da speciali sostanze chiamate semiconduttori, che permettono di realizzare con le singole molecole quel meccanismo di cariche negative e positive che era realizzato con gli anelli. I vecchi giganteschi circuiti sono ora diventati sottili lamine visibili solo al microscopio, aumentando in proporzione la quantità di dati che è possibile elaborare. Questi componenti sono chiamati chip, proprio per essere composti di sottili sfoglie di semiconduttori. Dall’altra parte la messa a punto della registrazione magnetica ha permesso di conservare i dati direttamente in forma magnetica, consentendo una maggiore capacità di archiviazione e soprattutto l’immediatezza nella fasi di registrazione e di lettura. Una speciale sostanza, le cui molecole conservano la polarizzazione, è stesa su una superficie costituita da un nastro 8 o da un disco. In fase di registrazione una testina elettromagnetica emette un campo elettromagnetico per modificarne la polarizzazione, in fase di lettura è la stessa testina che ne percepisce la polarizzazione. Tuttavia, anche se sono cambiate le dimensioni e le capacità di elaborazione, la struttura fisica delle informazioni è sempre costituita da cariche negative e positive, da 0 ed 1. L’interpretazione binaria Se le informazioni sono composte da tanti 0 ed 1, manca ancora un passo per arrivare ai programmi ed agli archivi di dati. E’ stata una convenzione accettata da tutti quella di attribuire un segno di 0 od 1 alla carica magnetica di polarizzazione, un’altra convenzione è necessaria perché queste serie di 0 ed 1 acquistino un senso. Nella matematica binaria, ad esempio, gli 0 ed 1 hanno una volare non in se stessi, ma in corrispondenza della loro posto nella serie. Prendiamo una serie di otto cifre binarie. Gli 0 valgono sempre 0. Gli 1 hanno un valore a seconda della loro posizione. Al primo posto ha valore 1, al secondo 2, al terzo 4, al quarto 8, al quinto 16, al sesto 32, al settimo 64 ed all’ottavo 128. Se sono presenti più 1 in posizioni diverse, i loro valori si sommano. Se la serie vede un solo 1 al primo posto, il valore totale è 1. Se c’è un 1 al secondo ed al terzo posto, il valore è 6 (2+4). Se c’è un uno al primo, al secondo ed al terzo posto, il valore è 7 (1+2+4). Se la serie è composta da tutti 1, il suo valore è 255 (1+2+4+8+16+32+64+128). Se comprendiamo anche il valore 0 di una serie senza alcun 1, abbiamo un totale di 256 valori. La convenzione che dobbiamo accettare è la rappresentazione, per ciascuna dei 256 valori, di una lettera, di una cifra, di un simbolo o di un codice. Le attribuzioni dei primi 128 valori sono stabilite da un codice valido per tutti i computer, l’American Standard Code for Information Interchange, chiamato ASCII, mentre i successivi 128 sono lasciati alla definizione del singolo sistema operativo. Nel codice ASCII, ad esempio, la lettera A maiuscola è rappresentata dal valore 65 (cifra binaria 10000010=1+64), la B dal valore 66 (01000010), la C dal valore 67 (11000010). Il numero 0 è attribuito al valore 48 (00001100), il numero 2 al valore 49 (10001100). La virgola è rappresentata dal valore binario 44, il punto dal valore 46 e così via. I valori superiori al 128 rappresentano lettere o simboli speciali, come le lettere accentate o i caratteri grafici. Le attribuzioni di questi valori cambiano anche per permettere alle diverse entità linguistiche di inserire le proprie particolarità. Bit e byte Nel gergo informatico la singola cifra binaria, di valore 0 od 1, viene chiamata bit. La serie di otto cifre binarie, quindi di otto bit, che da origine ai 256 valori, viene chiamata byte. Un bit può valere 0 od 1, mentre un byte può valere da 0 a 255. Come si è visto dal codice ASCII, ogni lettera, numero o simbolo viene rappresentata da un singolo byte. Tutte le informazioni, sia i dati che i programmi, vengono registrati, letti ed elaborati, sotto forma di byte. E’ questa la più piccola entità informatica, pur essendo anch’essa suddivisa in otto bit, cioè in otto impulsi magnetici. Ma la complicazione si espande ulteriormente quando si legge che alcuni computer lavorano a 8 bit, altri a 16, altri a 32. Si vuole semplicemente dire che il computer può considerare sia dati formati dal singolo byte, sia dati più grandi. In molti campi la limitazione a 256 valori non era sufficiente. Ad esempio nella grafica a colori. Assegnando un colore a ciascun byte si ottengono solo 256 colori, molto al di sotto delle esigenze grafiche professionali. Un computer che lavori con una scheda grafica a 24 bit è in grado di considerare gruppi di 24 bit come se fossero un valore unico, ottenendo così 16’777’216 colori diversi. In realtà i 24 bit formano tre byte, ma ciò vale solo per la struttura dell’archivio nel quale i dati vengono conservati. I tre byte, una volta letti dalla testina, diventano un solo valore ed un solo colore. 9 Ecco le definizioni di bit e byte: Bit Byte word address long word elemento base binario: è uno 0 od un 1 otto bit formano un byte, quindi otto elementi binari: da 00000000 a 11111111, valori binari che esprimono 256 numeri decimali due byte, quindi 16 bit, formano una word. Composta da 16 elementi binari, rappresenta 65’536 numeri decimali tre byte, quindi 24 bit, formano un address. Composto da 24 elementi binari, rappresenta 16’777’216 numeri decimali quattro byte, quindi 32 bit, formano una long word. Composta da 32 elementi binari, rappresenta 4’294’967’296 numeri decimali Tutte queste definizioni possono essere immediatamente dimenticate, visto che nessun utilizzatore di personal dovrà mai effettuare calcoli binari. Sono state qui riportate solo per comprendere la struttura fisica delle informazioni e per evidenziare la differenza fra 8 bit e 32 bit. Essendo quella binaria una matematica che opera in modo diverso dalla normale matematica decimale, 32 bit non sono quattro volte più di 8 bit, bensì 16’777’216 volte di più. Byte, Kilobyte e Megabyte Questo per quanto riguarda la composizione dei dati. La dimensione degli archivi viene, invece, misurata con altre unità di misura. Si parte sempre dal singolo byte, formato da otto bit. Il multiplo superiore, nella scala di misura, è il Kilobyte, ovvero un byte moltiplicato per mille. Ma poiché i dati devono sempre essere registrati, letti ed elaborati per multipli di otto, un Kilobyte è composto da 1.024 bytes. Si abbrevia in Kb. Il multiplo ancora superiore è il Megabyte, pari a 1.024Kb. Si abbrevia in Mb ed equivale ad un milione di byte, anzi a 1.048.576 byte. Si sale poi al Gigabyte, pari a 1.024Mb, cioè a 1.048.576Kb, oltre un miliardo di byte, abbreviato in Gb. Questa scala di misura serve a definire la capacità di memoria di un computer, di archiviazione di un disco, di lunghezza di un documento o di un archivio. La memoria attuale dei personal computer oscilla fra 1 ed 8 Megabyte, con possibilità di ulteriore espansione. La capacità di un dischetto si misura in qualche centinaia di Kilobyte, quella di un disco rigido in decine o centinaia di Megabyte. byte Kilobyte Megabyte Gigabyte Kb Mb Gb Kb 1.024 1.048.576 1.073.741.824 Mb 1 1.024 1.048.576 1 1.024 10 La rappresentazione esadecimale Vengono citati spesso, nell’informatica, i numeri esadecimali. In realtà i computer lavorano esclusivamente in numeri binari. Per comodità i programmatori usano rappresentare sia i numeri decimali (con 10 cifre) che i numeri binari (con due cifre) con numeri esadecimali. Questi hanno sedici cifre: le dieci cifre da 0 a 9 e quindi le sei lettere da A a F. Lo 0 esadecimale equivale al valore decimale 1 mentre la F esadecimale equivale al valore decimale 16. L’avere inventato una rappresentazione dei numeri usando 16 cifre, rende i numeri più compatti. Già il numero decimale 100, rappresentato dal binario 0010110, in esadecimale è 64. Dal punto di vista dell’utente, ciò non ha alcuna rilevanza. L’informatica nell’era del personal è molto più semplice e pratica. Del resto, lo scopo degli inventori del personal non era di portare l’informatica a tutti, ma di portare le informazioni a tutti. 11 Il personal computer Esistono tipi diversi di personal computer, ed ognuno risponde ad una diversa esigenza di lavoro: desktop portatili notebook penbook palmtop Desktop I computer desktop sono i classici personal, che trovano posto sopra una scrivania e che sono utilizzati nell’ordinario lavoro. Sono formati da una unità centrale, delle periferiche aggiuntive, solitamente tastiera, mouse e monitor, e da una serie di dispositivi come stampanti, lettori di Compact Disc, plotter, modem. Queste ultime sono attrezzature addizionali, aggiungibili secondo le esigenze. Sono periferiche di Input e di Output. Le periferiche di Input sono quelle periferiche che permettono di inserire dei dati all’interno del computer (tastiera e mouse, ma anche scanner, webcam, fotocamere, microfoni). Le periferiche di output sono quelle periferiche che permettono di ottenere i risultati dell’elaborazione del computer, cioè monitor, stampanti, casse audio, proiettori… L’unità centrale si presenta quasi sempre come un parallelepipedo di colore chiaro, con qualche lucetta di segnalazione e tante fessure per la scambio dell’aria. Sul retro, in genere, vi sono delle viti o dei ganci che permettono di sollevarne il coperchio. A patto che la spina, per prudenza, sia staccata, possiamo aprire l’unità centrale. Il parallelepipedo si rivela essere vuoto almeno per metà del volume. Esaminiamo gli elementi che vi troviamo. In un angolo, in corrispondenza con la presa di alimentazione, c’è il trasformatore. Il computer consuma pochissima energia elettrica, ed a basso voltaggio. Il trasformatore è racchiuso in una gabbia di metallo. Accanto troviamo il drive per i dischetti rimovibili in corrispondenza della fessura per inserirli e, sotto o di fianco, il disco rigido. Anche essi sono spesso rivestiti da un guscio di metallo. Sotto a tutto, coprendone l’intera estensione, un circuito stampato con numerosi componenti elettronici: è l’elemento più importante del computer e si chiama scheda madre. Direttamente saldati sulla scheda madre, oppure inseriti in essa, troviamo: microprocessore clock memoria RAM interfaccia grafica per il video una o più interfacce per il collegamento delle periferiche connettori, chiamati slot, per l’inserimento di schede aggiuntive 12 Sul retro dell’unità centrale abbiamo una serie di connettori, per il video, la tastiera, per periferiche come stampanti o mouse. Abbiamo anche alcuni spazi vuoti per inserire altri connettori. All’unità centrale vengono collegati tutti gli altri elementi del computer, comprese tutte le periferiche successivamente aggiunte. Il desktop è il computer ideale per il quotidiano lavoro d’ufficio. Lo rendono tale la grandezza e la leggibilità del monitor, la capacità di espansione di memoria fino a molti Megabyte e la possibilità di ospitare unità di registrazione dalle capacità ingenti. La presenza di numerosi connettori lo rende disponibile al lavoro con apparecchiature periferiche esterne sia come gestore delle stesse che come raccoglitore dei dati. Portatili I computer portatili sono molto più compatti. La caratteristica essenziale è quella di riunire in un solo corpo sia la scheda madre che l’unità a dischi, sia la tastiera che il video. Quest’ultimo è di tipo speciale, generalmente a cristalli liquidi, ma comunque di ridottissimo ingombro. Altra particolarità del computer portatile è quella di avere un accumulatore interno che consente di lavorare in modo autonomo, senza necessità di allacciarsi alla rete elettrica. Naturalmente questo accumulatore ha una durata limitata, il cui periodo di tempo è determinato, più che dall’accumulatore stesso, dai risparmi di consumo che i circuiti del personal consentono. Una buona ingegnerizzazione dei circuiti e l’uso di componenti a basso consumo, possono consentire un uso anche di alcune ore. Il computer è dotato di un coperchio, aprendo il quale appaiono lo schermo, sul retro del coperchio, e la tastiera. Anch’essa è sacrificata, spesso i tasti sono piccoli e manca il tastierino numerico. All’interno del computer, la scheda madre è affollatissima, e lo spazio per schede aggiuntive è limitato o inesistente. I connettori esterni sono limitati a quelli strettamente necessari, anche se alcuni portatili sono dotati di una presa del segnale video per poter collegare un monitor normale esterno. Esternamente, chiuso, un computer portatile somiglia ad una macchina da scrivere portatile, compresa la maniglia estraibile. Il suo peso si aggira sui 6 chili. Ha rappresentato una svolta nel personal, in quanto l’ha reso effettivamente trasportabile. Dotato di disco rigido, il portatile può realmente costituire un pezzo di ufficio che ci segue. L’autonomia, pure se limitata nel tempo, rende possibile il lavoro in qualsiasi ambiente. E’ frequente vedere computer portatili nelle sale di attesa degli aeroporti, sia nazionali che internazionali, anche se in realtà l’uso a bordo sarebbe vietato dalle norme internazionali di volo e, comunque, nessun portatile è in grado di lavorare per tutta la durata di un volo dall’Italia agli USA. I portatili sono utili anche per chi, professionalmente, deve svolgere parte del lavoro fuori del proprio ufficio. Grazie al portatile ingegneri, giornalisti, avvocati e rappresentanti di commercio possono utilizzare il computer in ogni occasione. Notebook Come dice il nome, questi computer hanno la stessa grandezza di un blocco note: 21 centimetri per 30. Ma non la stessa funzione, infatti sono computer personal a tutti gli effetti e sono in grado di eseguire tutti i programmi dei computer desktop o portatili. Alcuni modelli sono privi del disk drive per dischetti, e lo scambio di dati con un altro computer può essere effettuato esclusivamente tramite cavo. Lo schermo è identico a quello dei portatili, ma tutto il resto è di dimensioni ancora più ridotte. La tastiera è priva del tastierino numerico: questo può essere attivato all’interno della stessa tastiera tramite uno speciale tasto. Nel lavorare con un notebook si devono accettare dei compromessi con la comodità, ma in cambio la praticità di questi computer è eccezionale. Piccoli, dal peso di circa 3 chili, possono essere portati comodamente in una valigetta 24 ore od anche in una cartella portadocumenti. 13 Pen book Un penbook è un notebook senza tastiera. E’ dotato di speciali programmi che ne permettono l’uso grazie ad un apposito stilo a forma di penna. La penna non è utilizzata solamente per impartire comandi ai programmi, a somiglianza di quanto si può fare con il mouse dei desktop, ma anche per inserire dati. Sullo schermo del penbook si può scrivere, esattamente come su un foglio di carta, ed il computer interpreta la scrittura e la converte in caratteri di testo come se fossero digitati con la tastiera. Si tratta di un tipo di computer ancora in evoluzione. I sistemi operativi sono in via sperimentale, così come i programmi. La fase di interpretazione della scrittura manuale è ancora alquanto lenta e soggetta ad errori, mentre altri aspetti del funzionamento sono più avanzati. Ad esempio, la correzione e la modifica del testo già inserito avviene con modalità molto innovative e molto simili al comportamento istintivo dell’utilizzatore. Se una parola deve essere cancellata, basta tracciarvi sopra una croce con la penna. Per inserire una parola od un carattere, basta tracciare una barra nel punto esatto. Per cambiare “male” in “mele” si deve tracciare una croce sulla “a” e quindi scrivervi sopra la “e”. Palmtop Il palmtop è un computer grande quanto una videocassetta. Non bisogna confondere il palmtop con le agende o le calcolatrici tascabili. Sia le prime che le seconde possono, in alcuni casi, scambiare dati con un personal, ma non sono dotati né di sistema operativo né di programmi standard. Il palmtop è un computer a tutti gli effetti. Non effettua calcoli o gestisce agende se non con un programma apposito, mentre può elaborare o modificare documenti esattamente come una desktop. Le dimensioni ridottissime si ripercuotono su tutte le parti del computer. Lo schermo a cristalli liquidi è ridottissimo, così anche la tastiera, i cui tasti sono minuscoli. Il disco rigido è del tutto assente, e la registrazione dei dati avviene grazie a memorie contenute in schedine autoalimentate. Lo scambio di dati con un desktop è possibile solamente attraverso un cavo. Il palmtop non serve certo come strumento principale di lavoro. Può essere utilizzato per la consultazione di dati, o l’aggiornamento degli stessi. Si possono stilare alcune annotazioni, ma scrivere una lettera diventa quasi impossibile e molto faticoso a causa delle dimensioni dei tasti. Gli altri computer Il personal computer ha anche dei fratelli maggiori: workstation minicomputer mainframe supercomputer Le workstation sono computer di uso individuale, dalle dimensioni e dell’aspetto di un desktop o poco più grandi. Sono dotati di processori più evoluti, di maggiore capacità di memoria e di archiviazione . Le workstation sono adatte a svolgere compiti specializzati, spesso nel campo della grafica, della progettazione, del disegno tecnico, dell’ingegneria. Si tratta di applicazioni complesse, che richiedono una potenza ed una velocità che sarebbero sproporzionate per il normale lavoro d’ufficio. Il costo di queste macchine, d’altronde, è molto superiore a quello dei personal. I minicomputer sono elaboratori ancora più potenti. Essi sono posti al centro di una rete di terminali, ognuno dei quali lavora con il minicomputer come se fosse un computer isolato, 14 ma condividendo sia i dati che le apparecchiature di stampa, che gli stessi programmi. Tipica dei minicomputer, infatti, è la possibilità di avere un solo programma che viene utilizzato in contemporanea da più terminali. Sono elaboratori particolarmente utilizzati in ambito amministrativo aziendale, dove la condivisione dei programmi e dei dati è un fattore essenziale: tutti possono lavorare con le stesse procedure ed i dati possono essere aggiornati in tempo reale. I mainframe sono su un gradino ancora superiore. Questi elaboratori possono essere utilizzati da moltissimi terminali, anche a distanza tramite collegamenti telematici. Possono conservare numerosi archivi di dati e mandare in esecuzione molti programmi contemporaneamente. Sono utilizzati nell’ambito di grosse aziende per la gestione industriale vera e propria od in organismi statali per l’elaborazioni di grossi archivi di dati sempre in evoluzione. Costituiscono il nucleo centrale dei servizi informativi delle banche, degli istituti finanziari e delle borse. Sono anche impiegati dai servizi telematici pubblici e privati perché permettono il collegamento contemporaneo di molti terminali o computer e l’esecuzione veloce delle rispettive transazioni. I supercomputer sono abbastanza rari. Il loro costo è molto alto e vengono utilizzati nella progettazione industriale e nell’elaborazione di dati ad altissimo livello. Oltre alle multinazionali, i supercomputer sono impiegati da organismi statali ed organizzazioni militari. Hardware e software Altre definizioni sono molto comuni: hardware software L’hardware è costituito da tutte le componenti materiali del computer. E’ la parte fisicamente esistente, dall’unità centrale al monitor, dalla tastiera all’alimentatore, al disco, ai microprocessori, ai chip di memoria. Il software è composto dai programmi che fanno lavorare il computer. Una piccola parte di questo è già compreso in alcune memorie all’interno del computer, e viene chiamato firmware. Tutto il restante è registrato su disco e viene letto e caricato in memoria dal computer per essere eseguito. 15 Come scegliere un personal computer Quello che il computer deve fare, è di risolvere i vostri problemi, soddisfare le vostre necessità e migliorare i vostri risultati. Il che vuol dire, in sintesi, rendere più piacevole la vita e lo stesso lavoro. Il computer non deve essere una complicazione in più in un lavoro già complicato. Deve sciogliere i nodi organizzativi, deve rendere migliore lo scambio di informazioni, più veloce il disbrigo della routine. Il computer è la soluzione ideale dove vi sia una grande quantità di dati da gestire, dove il lavoro debba essere veloce ed accurato, dove le procedure sono ripetitive. Esaminiamo la situazione: pensate che il vostro lavoro migliorerebbe con un computer? quello che vi farà guadagnare è superiore alla spesa che affronterete? Ammettiamo che abbiate dato una doppia risposta positiva, considerando anche che vi sono guadagni non immediatamente percepibili, come una maggiore efficienza ed accuratezza nel lavoro o il tempo risparmiato. Nei costi, però, vanno considerati i materiali di consumo come i dischi, i nastri od i toner per le stampanti. Passiamo a porci altri interrogativi: - il computer deve svolgere un compito ben preciso oppure deve essere adatto a più applicazioni? Di solito un computer viene acquistato già con un obiettivo ben preciso, come tenere la contabilità, oppure in sostituzione della macchina da scrivere. In questo caso è necessario commisurare bene le caratteristiche del computer da acquistare alle reali necessità. Inutile farsi affascinare dalle possibilità grafiche di una potente scheda video quando il lavoro principale consiste nell’immettere i dati di fatturazione. Oppure il contrario: acquistare, per realizzare comunicati stampa, un computer che è incapace di lavorare con complesse impaginazioni di testo ed immagini. Questo interrogativo coinvolge la scelta di un computer secondo il suo microprocessore, la scheda video, la velocità. - quali sono le necessità di elaborazione e di archiviazione? In parole povere: qual’è la dimensione dell’archivio di dati che volete gestire e, dato ben diverso, quanti di questi dati devono essere elaborati con una stessa operazione? La grandezza totale dell’archivio coinvolge la scelta delle dimensioni del disco rigido interno al computer, la quantità di dati da elaborare coinvolge il microprocessore, la velocità, la configurazione di memoria. Archivio totale e dati da elaborare sono due entità differenti. E’ ben più semplice cercare il nome “Baldovinetti” fra diecimila nominativi, che selezionare fra cinquemila ragioni sociali tutte le ditte che abbiano fatturato superiore a 100 milioni, che producano estintori, che siano in provincia di Milano e quindi disporle in ordine di Codice di Avviamento Postale. Nel primo caso l’archivio è più grande, ma la ricerca richiede meno elaborazione; nel secondo l’archivio è più piccolo, ma la ricerca coinvolge molti parametri da considerare contemporaneamente. Nel secondo caso la richiesta di memoria e di velocità sarà molto maggiore. - quali sono le necessità di accesso ai dati? Si deve stabilire se i dati possono risiedere in archivi separati o devono essere sempre facilmente accessibili. Certi dati hanno una scadenza determinata, come le registrazioni fiscali, che possono essere conservare a parte anno per anno e ben raramente dovranno essere consultate. Questo interrogativo coinvolge il tipo e la dimensione del disco rigido, oltre al tipo di dispositivo utilizzato per la registrazione delle copie degli archivi. Può rendersi necessario l’installazione di un dispositivo di memoria di massa di grandi dimensioni, come un lettore di dischi ottici. 16 - quali sono le necessità di uscita dei dati? Potrebbe essere necessaria la stampa in modo accurato, oppure semplicemente delle stampe di bassa qualità. Può essere necessario elaborare i dati in forma grafica, a colori, e realizzare diapositive o lucidi per proiezioni. Queste esigenze influiscono sulla scelta delle periferiche di stampa e sulla capacità del computer di gestirle correttamente. - è necessaria la condivisione di dati con altri computer? Se le postazioni di lavoro sono più di una, potrebbe agevolare molto il lavoro di tutti se l’archivio principale fosse in comune, accessibile e modificabile contemporaneamente. Questa scelta coinvolge la creazione di una struttura in rete, con consequenti scelte sulla configurazione di memoria e sulla velocità dei computer. - come avviene l’introduzione dei dati? I dati possono essere introdotti tramite tastiera, oppure tramite penna ottica, tramite collegamento telematico, tramite Compact Disc, tramite dischetti. La tastiera è in dotazione ad ogni computer, ma gli altri dispositivi richiedono installazioni particolari. Sono sufficienti i connettori interni per le schede di interfaccia? La velocità del computer è sufficiente? Nel caso che ci si aspetti un ingresso di dati tramite dischetti, sarà necessario procurarci il giusto disk drive per tutti i formati di disco più comuni. - chi è l’utilizzatore del computer? Possiamo distinguere fra utilizzatore esperto, regolare o casuale. Mentre il primo può essere in grado di usare qualsiasi tipo di computer, il secondo ma soprattutto il terzo hanno bisogno di un computer che abbia un sistema operativo e dei programmi che richiedano un minimo addestramento. Acquista maggiore importanza il servizio che il rivenditore è in grado di fornire. Può effettuare tutta l’installazione ed il collaudo? Può tenere un breve corso? Può seguire il lavoro nei primi mesi? Può effettuare rapidamente la diagnosi dei malfunzionamenti ed identificare le cause in modo da evitare lunghi immobilizzi della macchina non dovuti a veri e propri guasti? Qualora non vi sia un utente esperto, questo tipo di servizi devono diventare parte essenziale nella scelte di un computer. - cosa succederebbe se il lavoro del computer venisse improvvisamente interrotto? Pur senza essere pessimisti ad oltranza, bisogna sempre considerare l’eventualità di un guasto od un incidente al computer, al disco, al monitor o ad una periferica. Se il lavoro che il computer svolge è di importanza vitale, è necessario che i dati non risiedano in un solo disco ma che si effettuino regolari e frequenti copie di riserva e che queste vengano conservate in un luogo sicuro. Ciò coinvolge l’acquisto di apposite unità di registrazione a nastro, di eventuali doppie periferiche o di un secondo computer dalle prestazioni inferiori a quello principale ma in grado di sostituirlo per breve tempo. - cosa succederebbe se i dati dell’archivio fossero distrutti, alterati o rubati? Si profila qui l’ipotesi di un intervento doloso. Esistono strumenti per evitarlo, anche se non del tutto. La perdita dell’archivio, ad esempio, può essere evitata dall’installazione di una particolare scheda che effettua una copia compressa di tutti i documenti su un disco rigido supplementare. Questo interrogativo può interessare pochi casi, ma in quelli è importantissimo. E’ anche importante non sopravvalutare questa minaccia, per evitare rallentamenti ed ostacoli nel lavoro quotidiano o che le stesse precauzioni si rivelino controproducenti. Ora, avendo elencato una serie di necessità, è possibile recarsi in un negozio e chiedere un computer con caratteristiche ben precise. Non è per cattiva volontà o per malizia da parte del negoziante se a volte l’acquirente è scontento dell’investimento effettuato. Spesso ciò si verifica perché l’acquirente stesso non sapeva quello di cui aveva bisogno. 17 La casistica degli acquisti errati vede: computer sottodimensionato rispetto al lavoro da svolgere e quindi nell’impossibilità di portarlo a termine; computer sovradimensionato e quindi sottoutilizzato; computer in configurazione errata, che rende impossibile o disagevole il lavoro; periferiche inadeguate alle necessità, che ostacolano il lavoro; computer inutilizzato, perché non ve ne era l’effettiva esigenza. Oltre alla necessità di provvedere ad un nuovo acquisto, devono essere considerati i danni diretti ed indiretti che che l’errato acquisto ha provocato. La perdita di tempo, ad esempio, ma soprattutto l’eventuale discredito procurato dai ritardi e dalle inadempienze. 18 L'organizzazione delle informazioni Dopo i primi anni del personal computer, nel quale scarseggiava sia la memoria che lo spazio su disco, con l'avvento dei dischi rigidi ad alta capacità e delle memorie RAM a prezzi contenuti, la quantità delle informazioni che un computer può archiviare ed elaborare è cresciuta a dismisura. I primi personal professionali venivano venduti con una RAM di 128Kb ed utilizzavano dischetti da 160Kb, ma fra le macchine hobbystiche non erano rari i 32Kb od i 64Kb di RAM e l'archiviazione su audiocassette. Oggi in campo aziendale si parla comunemente di macchine con 4Mb, 8Mb o 32Mb di RAM, di dischi rigidi di 160Mb, 320Mb o 640Mb. Ma anche un ordinario disco rigido da 40Mb contiene tanti dati quanti ne potrebbero contenere 250 dischetti da 160Kb. Ecco che si pone il problema di come fare in modo che un nostro documento, magari vecchio di qualche mese, all'improvviso diventato importante, urgente da rintracciare, sia disperso in mezzo ad una mole di migliaia di altri documenti. I primi sistemi operativi registravano i file tutti insieme. Dando il comando che elencava il contenuto del disco, ecco che apparivano sullo schermo dieci, venti, trenta... cinquanta o sessanta file. Fin qui niente di male, a patto di avere un po' di pazienza. Ma quando sono arrivati i dischetti da 720Kb o da 800Kb e la tecnologia ha permesso di costruire dischi rigidi da 10Mb che costavano le metà di quelli da 5Mb, i sistemi operativi sono stati aggiornati con quello che venne chiamato Hierarchical File System, cioè un sistema gerarchico che permettesse di creare una struttura dei dati registrati su disco, di organizzarli in modo logico e, soprattutto, di poterli rintracciare facilmente. Facciamo un salto indietro di qualche anno. Dobbiamo immaginare il disco rigido del nostro computer come uno di quei vecchi armadi che fungevano da archivio negli scantinati degli uffici pubblici. Decine e decine di metri di scaffalature alte fino al soffitto. Su ogni scaffalatura una serie di cartelle con il laccio, all'interno delle quali sono strette un certo numero di cartelline in cartoncino e dentro a queste ultime sono conservati i documenti. Come fare per ritrovare la lettera inviata al signor Gualtiero Rossi della omonima ditta? Semplice. L'usciere consulta il suo schedario e vi da le indicazioni giuste: andare alla fila M, trovare il settore 13, salire al ripiano 5, aprire la cartella "M/13/5/10", prendere la cartellina con sopra scritto "Pratica Ditta Rossi Gualtiero", aprirla e leggere la lettera siglata "M/13/5/10/prot. Rossi/75A". Senza l'usciere e senza il suo schedario, l'esito della ricerca sarebbe stato probabilmente negativo, oltre a farci sprecare un considerevole periodo di tempo a cercare su scaffali impolveratissimi. Se poi non si fosse nemmeno usato un sistema di numerazione per le file, i settori, i ripiani e le cartelle, sarebbe stata certamente un'impresa vana. Il sistema operativo è un usciere sempre efficiente, mentre lo schedario infallibile è ll nostro stesso disco il quale contiene, non solo i dati, ma anche il loro elenco. I diversi sistemi operativi, pur con lo stesso fine e con lo stesso risultati, hanno scelto similitudini differenti per descrivere il proprio sistema di archiviazione. Nel DOS viene chiamato ad albero, nel MacOS si parla di cartelline. Il DOS crea un archivio centrale e principale del disco, detto root directory. In questa radice sono depositati i file principali del sistema, e da qui dipartono le diversi componenti dell'albero, ognuna dei quali chiamato subdirectory. Ciascuna subdirectory può contenere files di dati o programmi, ma soprattutto può dare origini ad altre ramificazioni, ad altre subdirectory. Le subdirectory rappresentano i settori, i livelli, le cartelle e le cartelline del nostro immaginario archivio. Si possono creare fino a 512 subdirectory nella root directory, e fino 512 subdirectory in ciascuna subdirectory. Riandando al nostro esempio, l'archivio può avere 512 scaffalature, ognuna suddivisa in 512 settori, ciascuno con 512 livelli, ognuno dei quali con 512 cartelle che contengono 512 cartelline che contengono 512 cartelline che contengono 512... un bel po' di spazio! Il Mac/Os mostra visivamente, all'interno del disco rigido, oltre ai file di dati ed ai programmi, della cartelline. All'interno di queste cartelline, una volta aperte, troviamo altre cartelline, insieme ai file, ed ancora altre cartelline. La suddivisione consentita dal Mac/Os in cartelline 19 non ha limite, se non quello fisico del disco. Con tutte queste scaffalature, cartelle e cartelline, se l'usciere non è in gamba, schedario fatto con cura e l'organizzazione delle scaffalature ben fatta, abbiamo buone probabilità di non riuscire più a trovare la lettera alla ditta Gualtiero Rossi. L'usciere, non c'è dubbio, è abile e sveglio: è il sistema operativo; e sullo schedario non abbiamo problemi: lo gestisce il sistema direttamente sul disco. I guai iniziano per l'organizzazione delle scaffalature. Si, perché qui dovete provvedere voi. Una strategia per l'organizzazione La migliore organizzazione del disco è quella che corrisponde ad una suddivisione logica. Se esiste uno schema ben chiaro, la ricerca di un file sarà facilitata. Non sarà necessario ricordare a memoria esattamente la path, ma basterà ricostruirla secondo logica. Sono due le alternative. Possiamo suddividere i file secondo la natura del programma con cui abbiamo creati, oppure possiamo raggrupparli per argomento. Nel primo caso avremo tante subdirectory quanti programmi utilizziamo, ed al suo interno altre eventuali subdirectory più specifiche. Ecco un esempio: Disco rigido | |-- WORDPROC | | | |-- LETTERE | |-- BOZZE | |-- RELAZIONI | |-- CIRCOLARI | |-- APPUNTI | |-- DATABASE | | | |-- IND CLIENTI | |-- IND FORNITO | |-- MAGAZCARIC | |-- MAGAZSCARIC | |-- MAGAINVENTA | |-- SPREADSH | | | |-- FATTURE | |-- PRIMA NOTA | |-- CONTOCORREN | |-- REGIRPEG | |-- REG.IVA | |-- RIT.INPS | |-- RIT.IRPEF Questo tipo di struttura prevede una subdirectory per i file di word processing, una per gli archivi del data base ed una terza per i fogli di calcolo dello spreadsheet. All'inizio questo tipo di gerarchia funziona bene. E' facile trovare un documento, basta ricordarsi con quale programma è stato realizzato e cercare nell'apposita subdirectory. Ci sono però due controindicazioni. I documenti correlati sono distanti fa loro. Le lettere ai clienti, i listini di vendita, il data base con le etichette, il conto delle vendite sono sparsi per tutto il disco. Alcuni documenti vengono elaborati con più programmi. Bisognerà decidere e poi ricordarsi quale dei due è preminente. 20 Ed ecco un esempio di organizzazione per argomento: Disco rigido | |-- CLIENTI | | | |-- LETTERE | |-- FATTURE | |-- AVVISI | |-- SOLLECITI | |-- ETICHETTE | |-- FORNITORI | | | |-- LETTERE | |-- PAGAMENTI | |-- AVVISI | |-- ORDINI | |-- ETICHETTE | |-- CONTABILITA | | | |-- FATTURE | |-- PRIMNOTA | |-- CONTOCORREN | | | |-- RITENUTE | | |-- INPS | | |-- IRPEF | | |-- DICHIARAZIO | | | |-- REGISTRI | | |-- IRPEG | | |-- IVA | |-- MAGAZZINO | | | |-- CARICO | |-- SCARICO | |-- INVENTARIO Con questa impostazione è più facile rintracciare documenti correlati, come una lettera ed il listino che vi abbiamo allegato, ma è più complessa la struttura che diamo al disco, e quindi più complicata la ricerca. Non esiste una organizzazione ideale dei file. L'importante è che corrisponda al vostro modo di lavorare, alla vostra logica. Immaginatevi di ritornare, dopo un mese di vacanze, davanti al vostro computer. Dovreste essere in grado di orizzontarvi perfettamente tra le subdirectory come farete fra le stanze di casa vostra. Può anche capitare che, in vostra assenza, un vostro collega abbia la necessità di lavorare con il vostro computer. La vostra organizzazione non deve essere troppo astrusa, quindi, ed il vostro modo di denominare le subdirectory ed i documenti deve essere il meno criptica possibile. 21 E' necessario fare molta attenzione alla denominazione dei file, al loro spostamento ed alle copie, per evitare che un nuovo file ne cancelli uno vecchio perché ne ha lo stesso nome. Una caratteristica di tutti i sistemi operativi, infatti, è quella di non consentire che due file, all'interno della stessa subdirectory, o cartellina, abbiano lo stesso nome. Ed è logico, visto che il sistema operativo non ha alcun sistema per distinguerli se non con il nome. Tuttavia i sistemi operativi etichettano il file, alla creazione od alla modifica, con la data e l'ora corrente. Quasi sempre è lo stesso sistema operativo che informa l'utente di queste date quando viene chiesto l'elenco dei file, oppure quando si effettua una spostamento di un file in una cartellina che già contiene un file con lo stesso nome. Ma se questo può servirci per identificare un file, o per sapere quale delle due versioni di uno stesso documento sia la più recente, non può permettere la coesistenza di due file con lo stesso nome, anche se creati o modificati in data diversa. Si tratta di una scelta fondamentale e strategica, perché altrimenti il computer continuerebbe a registrare senza mai sostituire. Tutte le versioni che registriamo di una lettera via via che la scriviamo, la correggiamo, la modifichiamo, esisterebbero ancora tutte insieme provocando confusione e riempendo in breve tempo anche il disco rigido più capace. Il suggerimento che ci da il sistema operativo è il più banale. Se vogliamo avere versioni diverse di uno stesso documento, basta registrarle con nomi diversi. Basta aggiungere un "1" od un "2", un "bis", o proprio un altro nome. In ogni caso dovremo attribuire un nome ad un file in modo che possa essere facilmente identificato, che non possa creare equivoci sulla sua identità o con altri documenti. Chiamare "Giovanni" una relazione al vostro capoufficio può anche andare bene, ma non se lui si chiama Vittorio. Registrare come "Lettera" una lettera, "Bozza" una bozza ed "Appunto" un appunto, vuol non sapere più di cosa si tratta, ma soprattutto cancellarlo al primo documento dello stesso tipo (e con lo stesso nome) che si crea. Purtroppo alcuni sistemi operativi, come il DOS, hanno delle limitazioni di lunghezza nel nome dei file. Il DOS permette solo undici lettere. Solo otto, però, costituiscono il nome vero e proprio, mentre le altre tre, chiamate estensione e separate dalla prima parte da un punto, vengono spesso riservati al programma con il quale avete generato il documento. Eccoci allora tentati di sintetizzare. Nascono nomi come "LettaMil", come "RelazCap", come "DicIrpMi", che possono portare ad equivoci se non si sono precedentemente organizzati in una buona struttura gerarchica. "LettaMil" potrebbe essere una lettera alla filiale di Milano se nella subdirectory "FiliaMilano", ma anche una lettera a Milena se nella subdirectory "Personale". L'organizzazione delle informazioni nel vostro disco rigido deve: consentire l'immediata catalogazione di un documento, senza nutrire dubbi su quale subdirectory lo debba ospitare; facilitare la ricerca di un documento anche a distanza di tempo e fra documenti simili; corrispondere al modo personale di organizzarsi l'ambiente di lavoro, per una maggiore efficienza; permettere anche ad altri utenti di lavorare; evitare equivoci fra documenti dal nome uguale o simile. I nomi dei file devono: esprimerne sinteticamente il contenuto; impedirne la cancellazione durante la copia o gli spostamenti; essere ben specifici ed il meno possibile generici; prevedere un espediente per distinguere diverse versioni dello stesso documento. 22 Guasti, assistenza e crimini La vita tecnologica di un computer è breve. Nel giro di due o tre anni il computer che avete acquistato potrebbe essere fuori produzione, rimpiazzato da un modello più potente e di minor costo. Non è un buon motivo per buttarlo via al primo guasto. Il costo del computer, delle sue periferiche e dei programmi, rappresenta spesso un notevole investimento, e deve essere tutelato il più possibile. Come ogni altro prodotto, i computer godono di una garanzia di un anno dall'acquisto, garanzia che spesso comprende i pezzi di ricambio ma non l'intervento del tecnico ed il trasporto del computer. Molto spesso le periferiche, soprattutto le più delicate come gli scanner, vengono garantite solo per pochi mesi, spesso sei, a volte tre ma anche uno solo. I costi di riparazione di questo tipo di apparecchiature sono molto alti: spesso due o tre interventi superano il costo della stessa macchina. Il che è giustificato da una parte dal fatto che si tratta di interventi che richiedono l'opera di specialisti, e dall'altra che i pezzi di ricambio hanno spesso un unico fornitore. Inoltre le tecnologie costruttive odierne, di tipo modulare, impediscono il piccolo intervento che, con una sciocchezza, risolve il guasto. I componenti sono spesso montati in modo inscindibile l'uno dall'altro ed il tecnico sostituisce l'intero modulo. Se si considera che un computer è costituito da una sola scheda madre, un trasformatore, un disco rigido ed un floppy, bastano quattro guasti per sostituire l'intero computer, con un costo più che proporzionato. Nell'acquistare un computer od una qualsiasi altra apparecchiatura accessoria è indispensabile pretendere la garanzia di un anno. In caso contrario, è preferibile scegliere un altro modello. L'assistenza Bisogna distinguere fra garanzia ed assistenza. Il computer ha la regolare garanzia di un anno, ma se il produttore, il distributore ed il rivenditore non sono in grado di garantire un servizio tecnico di assistenza efficiente, la garanzia è inutile. I guasti che avvengono in un computer sono bene individuabili e velocemente riparabili, ma anche il più piccolo può paralizzare il lavoro. Un'automobile può viaggiare anche se il tergicristalli non funziona od il riscaldamento è fuori uso, ma i componenti di un computer devono essere assolutamente tutti in piena salute. Basta che si rompa un tasto della tastiera, od un piedino della porta seriale, oppure che il connettore della porta video faccia un falso contatto, per rendere il computer inutilizzabile. Spesso il malfunzionamento viene identificato dagli autotest che avvengo all'accensione, ed il computer rifiuta addirittura di entrare in funzione. Una riparazione può essere questione di ore, se il laboratorio di assistenza è efficiente e se i componenti sono disponibili, oppure mesi, se il laboratorio è inefficiente o semplicemente non esiste ed il rivenditore è costretto a spedire il computer guasto al produttore. Acquistando un computer, bisogna accertarsi che il rivenditore disponga di un laboratorio di riparazione ben fornito di componenti e di tecnici, oppure che sia in grado di fornire un elenco di laboratori presso cui sia possibile recarsi per le riparazioni in garanzia. All'atto dell'acquisto è possibile, in alcuni casi, sottoscrivere un contratto di assistenza che copre da ogni costo, compreso quello di intervento, e che prevede la riparazione a domicilio o con il trasporto gratuito. Questo tipo di garanzia prevede anche che l'intervento del tecnico venga effettuato entro un tempo limite. Nel caso che l'apparecchiatura non possa essere subito riparata, alcuni di questi contratti garantiscono il noleggio gratuito di una apparecchiatura equivalente per tutto il periodo in cui la vostra sarà inutilizzabile. Un contratto di assistenza a pagamento può essere stipulato sia durante il corso della garanzia gratuita che alla sua scadenza. Il suo costo sarà proporzionale al valore a nuovo della macchina e dipenderà dal tipo di copertura prevista. 23 L'origine dei guasti Tranne difetti di fabbricazione, che in genere si rivelano subito, sin dai primi attimi di lavoro, un computer non è molto soggetto a guasti. Le parti meccaniche sono molto limitate e non sono soggette a logoramento. La parte elettronica, se non viene sottoposta a traumi come cadute, eccessivo calore o sbalzi di corrente, ha un periodo di vita praticamente illimitato . L'eccesso di calore è una causa frequente di malfunzionamenti temporanei o di guasti di componenti elettronici. Il manuale riporta sempre un arco di temperatura adatta al computer, ma è necessario distinguere fra la temperatura ambientale della stanza nella quale si trova l'apparecchiatura e la temperatura all'interno del computer. Mentre la prima è ben al di sotto dei limiti previsti, la seconda può facilmente innalzarsi oltre la soglia per tutta una serie di fattori: - sul computer sono presenti delle fessure che servono da prese di aerazione per i componenti interni. Appoggiare libri al computer, od altri oggetti, può provocare la chiusura di queste prese bloccando il ricambio d'aria; - il monitor produce una notevole quantità di calore: è sempre consigliabile utilizzarlo con un piedistallo non solo per comodità, ma perché si crea uno spazio fra computer e monitor nel quale il calore si disperde; - polvere, cenere, fumo ed altri sporchi penetrano all'interno del computer attraverso le fessure di aerazione: a computer spento, è consigliabile aprire il coperchio e pulire delicatamente la scheda madre e tutti i componenti almeno una volta l'anno o pim frequentemente, se necessario, con gli stessi strumenti che si utilizzano per pulire le macchine fotografiche; - l'interno del computer, quasi vuoto al momento dell'acquisto, può rapidamente affollarsi di schede: ciò non solo blocca la normale convezione dell'aria, ma provoca calore sia per i componenti stessi che per l'alimentatore/trasformatore, sottoposto a superlavoro: può essere installata una ventola interna di raffreddamento, oltre ad un alimentatore/trasformatore con maggiore capacità. Gli sbalzi di corrente che provocano guasti non sono quelli che provengono dalla linea elettrica, che viene regolata dall'alimentatore/trasformatore, ma dagli altri collegamenti con schede e periferiche. Negli slot in cui vengono inserite le schede e nei connettori seriali e paralleli, nonché in quelli per il monitor e la tastiera, sono spesso presenti dei contatti che portano corrente elettrica. L'intensità è bassa, ma l'inserire una scheda od un cavo mentre il computer è acceso, e quindi è presente la corrente nei contatti, può provocare seri danni sia ai componenti della scheda madre sia a quelli della scheda. Oltre allo sbalzo di corrente, il danno può essere provocato anche dal falso contatto che si può provocare, con un maldestro inserimento, fra parti dedicate al traffico dei dati. Portare una corrente di 12 volts in una linea dati significa danneggiare definitivamente i componenti elettronici. Nel gergo dei riparatori, si dice che la scheda è stata "fritta", o "bruciata". Allegoria che non è molto distante dal vero. Ogni inserimento o sconnesione di schede o cavi deve sempre avvenire a computer spento, così come devono essere sempre spente anche le apparecchiature collegate. L'inserimento di schede nella scheda madre o la loro estrazione sono spesso causa di danni se non effettuate con ogni cura. La prima precauzione da prendere, dopo aver spento il computer, è quella di scaricare l'energia statica che potrebbe essere presente sul corpo. Se venisse trasmessa ai componenti della scheda, attraverso le mani, la piccola scarica elettrica danneggerebbe i delicati circuiti interni delle memorie ROM e RAM. Ogni volta che si tocca una scheda è necessario toccare prima il contenitore in ferro dell'alimentatore/trasformatore per scaricarsi. La seconda precauzione è quella di usare sempre molta delicatezza. Una inserzione forzata od una estrazione violenta possono provocare rotture o incrinature nella sottile superficie delle schede, con la conseguente irrimediabile interruzione dei circuiti stampati. 24 Le precauzioni Infine alcune indicazioni per una corretta sistemazione ambientale del computer: - non deve mai trovarsi in vicinanza di fonti di calore, come termosifoni o stufe; - non deve mai essere direttamente esposto alla luce del sole; - non deve mai essere in vicinanza di zone umide o con possibilità si schizzi d'acqua; - i cavi devono essere raggruppati e fissati al tavolo, non devono rimanere penzolanti o arrotolati sul pavimento in zone di passaggio; - intorno ai lati del computer non devono esserci oggetti, il computer deve essere ad almeno dieci centimetri da pareti o scaffalature; - nel raggio di mezzo metro dal computer non dovrebbero esserci altre apparecchiature elettriche come fotocopiatrici, televisori, elettrodomestici; - la linea elettrica che alimenta il computer non dovrebbe essere in comune con apparecchiature che provochino grossi consumi improvvisi come luci al neon, fotocopiatrici, elettrodomestici. In caso di guasto Innanzi tutto è molto probabile che non si tratti di un guasto vero e proprio, bensì di un cattivo funzionamento per cause hardware o software. Una periferica che abbia bisogno di una particolare procedura di installazione non può funzionare se non la si effettua correttamente, o se in seguiti si cancellano i file di cui ha bisogno per funzionare. Un tentativo da fare è di effettuare una nuova installazione del software richiesto dalla periferica. Una periferica che funziona con un programma, non è detto che funzioni con un programma che è simile, ma differisce nella gestione delle periferiche. Se l'apparecchiatura con alcuni programmi funziona e con altri no, si tratta di un evidente caso di incompatibilità. Un cavo male collegato o con dei contatti instabili può provocare il malfunzionamento saltuario o permanente della periferica in uno od in entrambi i sensi della trasmissione dei dati. Il computer può trasmettere alla periferica, ma non può ricevere. E' necessario controllare l'inserimento corretto dei cavi e se non siano rotti in qualche punto. Lo stesso inconveniente può essere dovuto allo spostamento di una scheda nello slot a causa di un urto al computer. Gli aggiornamenti del software, sotto questo punto di vista, sono pericolosissimi. Un programma può smettere di funzionare perché è stato aggiornato il sistema operativo, ma non ancora il programma. Stessa situazione quando è il programma ad essere stato aggiornato, ma la versione del sistema operativo è vecchia. Il verificarsi di malfunzionamenti subito dopo l'aggiunta di una scheda nuova, pone un grave dubbio sull'efficienza della stessa. La scheda può essere innocente, e la colpa derivare da un programma vecchio ed incompatibile. L'abitudine di munire il computer di piccole utilità che occupano piccole porzioni di memoria e che visualizzano l'ora sul monitor, ne cambiano lo schermo durante i momenti di pausa, esamino i dischi alla ricerca di virus, e così via, può essere la causa di molti malfunzionamenti altrimenti inesplicabili. In questo caso è necessario eliminare queste utilità una per una, fino ad individuare la colpevole. Spesso non è il programmino in sé ad essere la causa dell'apparente guasto, ma semplicemente l'abbinamento di due o più che si ritrovano così in conflitto. In caso di guasti o malfunzionamenti è sempre consigliabile, prima di chiamare il tecnico, verificare queste possibilità, compreso il corretto inserimento della spina nella presa della corrente elettrica. Non sono rari gli utenti che chiamano il tecnico senza accorgersi che è andata via la luce all'intero quartiere. E' comunque necessario cercare di comprendere bene in quale circostanze si verifica il malfunzionamento. In particolare: - quale sistema operativo è presente e con quale versione; - quale programma è in esecuzione; - quale programma abbiamo utilizzato prima di questo; - se vi sono programmi di utilità residenti in memoria, e quali; 25 - quali sono le periferiche accese e quali quelle spente; - quali sono le schede presenti negli slot del computer; - da quanto tempo è acceso il computer, da quanto tempo vi stiamo lavorando o per quanto tempo è rimasto inattivo. La fonte del guaio potrebbe essere individuata cercando di replicare il malfunzionamento variando una per volta le circostanze originarie. Tenete comunque presente che i tecnici addetti all'assistenza ed alla riparazione di computer diffidano della capacità di un utente ad usare un personal. La prima ipotesi che viene fatta è sempre quella di un errore dell'utente, e l'ultima è sempre quella di un guasto dell'hardware. I virus I virus del computer sono programmi realizzati per divertimento, il cui unico scopo è quello di danneggiare o rendere inefficiente un computer. Dopo i molti articoli pubblicati sui giornali, un utente inesperto, che si trovi davanti ad un malfunzionamento per lui incomprensibile, pensa immediatamente all'esistenza di un virus. Niente di più errato. Un virus può avere come obiettivo la distruzione di tutto quanto sia registrato sul disco rigido, oppure di rallentare tutte le attività del computer. Quello che è sicuro è che un virus non lascia palesare la sua presenza con molta facilità. Il danno che egli provoca deve essere immediato e totale, oppure graduale ed inavvertibile. Un virus che provocasse un malfunzionamento evidente, ma parziale, tradirebbe la sua presenza senza raggiungere nessun obiettivo definitivo. Non è facile identificare la presenza di un virus, a meno che non si tratti di un virus "dimostrativo" che si limita a far rimbalzare una pallina sullo schermo. I virus "seri" possono essere rintracciati solamente con appositi programmi, chiamati antivirus, che esaminano i codici di ogni programma presente nel disco alla ricerca di particolari sequenze di dati. I virus conosciuti si possono dividere in categorie: - bombe logiche: si installano nel sistema ed attendono una particolare situazione, ad esempio la cancellazione di un nome dal programma degli stipendi per cancellare tutti i dati amministrativi e fiscali (tipica ritorsione di programmatori che sospettano un imminente licenziamento); - bombe a tempo: la distruzione degli archivi avviene allo scadere di un determinato periodo od in una data precisa (alcuni di questi virus sono stati utilizzati a scopi politici); - cavalli di troia: piccoli programmi che sembrano svolgere una attività utile, ma che di nascosto ostacolano e rallentano le attività del computer, oppure ne alterano i dati; - infestanti: si diffondono da computer a computer, attraverso i collegamenti in rete, non avendo lo scopo diretto di danneggiare i computer, ma solo di riprodursi con la maggiore velocità possibile, rendendo ben presto impossibile il normale lavoro; - back door: cioè porta di servizio, che permettono l'aggiramento delle normali procedure di sicurezza e l'ingresso senza autorizzazione in archivi di dati riservati importanti per l'azienda; - virus: propriamente detti, che consistono in una sequenza di codici che si autoinstallano in determinati programmi al posto del codice originale e che, alla prima occasione, infettano altri programmi. Alcuni di questi virus hanno semplicemente una origine dolosa, ed i danni che provocano non apportano alcun vantaggio al programmatore che lo ha creato. Altri, soprattutto i back door, hanno una utilizzazione esclusivamente criminale a fini di spionaggio, di ricatto, di furto di informazioni, o di manipolazione delle stesse per trarne vantaggio. Le principali precauzioni che possono essere prese per prevenire l'attacco da parte di un virus sono: - proteggere il computer con un programma antivirus che esamina tutte le attività cercando e segnalando quelle "sospette"; - esaminare periodicamente il disco ed i dischetti con un programma antivirus che rintracci i dati caratteristici dei virus conosciuti; 26 - impedire che persone estranee lavorino con il nostro computer utilizzando loro dischetti e loro programmi; - non utilizzare mai nessun programma, originale o meno, acquistato o preso in visione, senza averlo fatto esaminare dal programma antivirus; - ricevendo un dischetto da un amico o da un collaboratore, inserirlo nel drive del computer solamente se è attiva la protezione antivirus ed esaminando immediatamente il dischetto; - portando propri dischetti per lavorare con il computer di un altro utente, avere cura di tenerli costantemente protetti dalla scrittura. Con questo tipo di precauzioni è molto difficile che un virus riesca ad entrare nel vostro computer per danneggiarlo. Il crimine informatico Un capitolo a parte meriterebbe la sicurezza informatica, problema particolarmente sentito nel mondo aziendale. Possiamo così dividere gli atti dolosi che hanno a che vedere con i computer: - furto delle informazioni contenute nel computer; - abuso del computer per trarre profitto da operazioni del lavoro ordinario; - intrusione in sistemi informativi per utilizzarne i servizi; - sabotaggio del computer o delle informazioni contenute; - furto di dispositivi hardware. Un esempio del primo tipo di crimine informatico è quello dell'impiegato che, avendo la possibilità di accedere ad un nuovo progetto industriale, ne vende una copia alla concorrenza. Nel secondo caso cade il bancario che detrae poche lire per ognuna delle centinaia di operazioni bancarie che avvengono ogni giorno in un centro di calcolo di un istituto finanziario, immettendole sul proprio conto. L'utilizzo di password trafugate è all'origine del terzo tipo di azione dolosa. Un individuo accede, tramite la parola d'ordine di un ignaro utente regolare, ad un servizio telematico a pagamento, come il Videotel, e ne utilizza i servizi facendone addebitare i costi sul nominativo legale. In questo caso il criminale non trae vantaggi concreti dalla sua azione, per lo meno non in termini monetari. Ugualmente poco redditivo è il quarto caso di crimine informatico, usualmente praticato da impiegati scontenti o sul punto di essere licenziati. I danni provocati possono essere diretti, come il guasto provocato a qualche apparecchiatura, o indiretti. E' di questa specie l'immissione di un virus nei computer aziendali, oppure una attività di danneggiamento delle informazioni cancellando o alterando quelle esistenti o creandone una certa quantità di false. Meno raro di quello che si possa pensare, il terzo tipo di crimine. Certo è ben difficile che un impiegato possa uscire dall'ufficio con un personal sotto il braccio, ma la gran parte delle schede è comodamente occultabile in una cartellina per documenti. Per non parlare dei dischetti, dei mouse o dei cavi, tutti abbastanza piccoli da entrare in una tasca di soprabito. In quest'ultimo tipo di crimine rientra anche la copiatura del software originale. L'azienda non ne risente un danno diretto, ma l'impiegato che copia un software originale per utilizzarlo a casa può provocarne uno anche più grave. All'atto dell'installazione dei programmi viene richiesta la digitazione del numero di serie, che viene così registrato nel codice stesso del programma. Lo stesso numero è a conoscenza del produttore o del distributore ufficiale tramite la fatturazione o l'invio della scheda per la garanzia, l'assistenza e le future offerte di aggiornamento a prezzo scontato. Se il dipendente copia il programma in ufficio e poi, come spesso capita, lo scambia con altri che a loro volta lo scambiano di nuovo, il programma potrebbe finire nella mani "sbagliate" e, tramite l'individuazione del numero di serie, portare a perquisizioni e cause per danni. 27 Il backup Quale che sia l'origine del nostro problema, guasto di hardware, malfunzionamento di un software, caduta dell'energia elettrica, virus o sabotaggio, la conclusione è che il computer è inutilizzabile e molti giorni di lavoro sono ormai persi. A meno che non sia stato fatto un backup, cioè una copia dell'intero archivio o delle parti più importanti. L'abitudine di effettuare backup frequenti dell'hard disk presente all'interno del computer può essere noiosa, ma è l'unico stratagemma che ci consente di recuperare il nostro lavoro nel caso che il computer si guastasse in modo drastico. Esistono programmi per effettuare il backup in modo completamente automatico, su un singolo computer o su una rete di personal, in ore non lavorative oppure parallelamente al lavoro ordinario. L'effettuazione di una copia di tutti i documenti, o almeno di quelli importanti o di quelli nuovi o modificati, può essere un impegno noioso e, al 99 per cento delle volte inutile. Ma quando si verifica un "incidente", come il guasto di un disco rigido, la cancellazione fortuita di alcuni documenti o l'infezione da parte di un virus, non avere una copia dei programmi e dei documenti vuol dire averli persi definitivamente. Il backup deve essere studiato in modo strategico, tale da intralciare il lavoro ordinario il meno possibile, ma da essere realmente efficace in caso di necessità. Esistono due tipi di backup: - backup completo, quando si effettua una copia totale di un disco rigido; - backup incrementale, quando si copiano esclusivamente i documenti nuovi e quelli modificati. Quello completo richiede molto più tempo di quello incrementale, ma effettua una copia sicuramente esatta del disco rigido. Del resto, se i dati contenuti nel disco rigido non subiscono un totale cambiamento ogni giorno, è inutile effettuarne una copia completa quasi identica a quella precedente. Una strategia di backup prevede l'alternanza dei due tipi. Si fa, ad intervalli stabiliti, un backup completo del disco rigido. Nell'intervallo di tempo fra due backup completi, si fanno tanti backup incrementali. Nel momento in cui il disco rigido si rovinasse, sarebbe sufficiente recuperare i dati totali dal backup completo e poi ristabilire le modifiche recuperando i backup incrementali. La successione nel tempo può essere: - un backup completo al mese ed uno incrementale alla settimana, quando il ricambio di dati nel computer sia modesto; - un backup completo alla settimana ed uno incrementale al giorno, quando i dati del disco rigido subiscano aggiornamenti continui. I backup incrementali devono essere conservati solamente per il periodo di tempo da un backup completo all'altro, ma per questi ultimi il discorso cambia. Se si archiviano sistematicamente copie dei documenti elaborati o degli archivi di dati su dischi rimovibili o nastri, allora i backup completi possono essere cancellati dopo un certo periodo di prudenza. Altrimenti essi sono l'unica possibilità di recupero di documenti a dati vecchi di mesi od anni, e vanno conservati permanentemente. Un documento conservato in un backup completo effettuato su nastro, per quanto al sicuro, richiede molto tempo per essere trovato e recuperato. Se questo tipo di consultazione è frequente, è consigliabile archiviare copie singole dei documenti in modo organizzato, creando una biblioteca su dischi rimovibili di grande capacità, ottici o magnetici. Per l'uso privato o professionale, può essere sufficiente registrare i documenti non più usati su normali dischetti, magari in doppia copia su dischetti diversi, conservandoli in luoghi separati. Le unità di memoria di massa ideali per l'effettuazione di backup, sia completi che incrementali, sono i nastri magnetici. Hanno un costo limitato, una capacità molto grande ed una buona velocità in registrazione. L'unico inconveniente è che l'eventuale recupero di un documento avviene in tempi molto lenti. Effettuare backup con rischi rigidi rimovibili, o con dischi ottici, consente un recupero istantaneo della copia di un documento, ma costringe ad utilizzare una unità di memoria di massa molto costosa. L'uso di normali dischi o dischetti floppy è del tutto sconsigliato per i backup. L'operazione sarebbe lunghissima e molto costosa, dovendo utilizzare molte decine, se non centinaia, di 28 floppy. La combinazione ideale vede: - una unità a nastri per i backup completi, conservabili così anche per anni; - una unità a dischi rigidi rimovibili per i backup incrementali temporanei; - una unità a dischi ottici scrivibili o a dischi rigidi rimovibili per l'archiviazione definitiva di documenti importanti di cui è probabile la consultazione. Programmi di protezione Esistono piccoli programmi di salvaguardia delle informazioni contenute nel disco rigido di ciascun computer. Questo software di utilità lavora in due tempi. Un programma è sempre residente in memoria, e si incarica di tenere una copia della mappa dei documenti contenuti nel disco rigido. La mappa può essere periodicamente registrata su un dischetto o su un altro disco rigido. Un secondo programma, in caso di una distruzione della mappa originale del disco o di una formattazione parziale del disco, è in grado di ricostruire tutto il contenuto del disco, od almeno una parte, utilizzando le informazioni contenute nella copia della mappa. Lo stesso programma può anche ricostruire un singolo documento, cancellato per errore. Entrambe le operazioni di salvataggio sono però soggette a fallimento e non possono dare alcuna garanzia di recupero. Sono un valido aiuto per rimediare ai danni provocati dalla distrazione o dal caso, ma non possono sostituire una costante strategia di backup. Le controindicazioni alla protezione La strategia di protezione contro guasti, virus e crimini può anche presentare delle controindicazioni. Facciamo un esempio. Abbiamo paura che i dati del nostro computer vengano sottratti. Acquistiamo un apposito programma e proteggiamo l'accesso all'archivio con una parola d'ordine. Una volta inserita la parola d'ordine, nessuno può più lavorare con quei dati. Bene, ma si possono verificare i casi seguenti: - l'utente installa il programma e, provandolo, inserisce una parola d'ordine per errore e non riesce più a ricordarla. L'archivio è perso. Nessuno, in nessun modo, può recuperare la parola d'ordine; - l'utente ha installato la parola d'ordine e la ricorda, ma ha paura di non ricordarla e quindi la scrive su una agenda che tiene sul tavolo. Non solo l'archivio potrà essere letto facilmente, semplicemente aprendo l'agenda e trovando la parola d'ordine, ma l'utente continuerà ad inserire dati confidenziali convinto di essere al sicuro; - l'utente ha installato la parola d'ordine, sa di non doverla scrivere in posti facilmente accessibili, e quindi ne sceglie una facilmente ricordabile come il nome della moglie, della figlia, del cane, la targa dell'auto, il numero di telefono di casa, il soprannome con cui lo chiama la moglie. Sono queste le prime parole d'ordine che un criminale tenta di inserire, ed anche ad inserirle all'inverso od anagrammate; - l'utente ha installato la parola d'ordine, la ricorda benissimo e l'usa correttamente. Un giorno, però, da le dimissioni e se ne va senza lasciarla in consegna a nessuno. In questi casi la soluzione si rivela peggiore del male. Anche la psicosi del virus può danneggiare od ostacolare il lavoro. E' molto frequente vedere computer con installati appositi programmi antivirus che effettuano automaticamente un esame approfondito di ogni dischetto che vi viene inserito. Controllo molto utile, ma se i dischetti sono sempre rimasti nelle mani dello stesso utilizzatore del computer o di suoi colleghi ugualmente protetti, a cosa serve effettuare più volte lo stesso controllo se non a perdere tempo? Meglio, allora, effettuare il controllo espressamente per i soli dischetti che provengono da estranei. 29 Assemblare il proprio personal A fianco dei modelli di marche più o meno conosciute, molti rivenditori di computer offrono in vendita personal “assemblati” a prezzi più economici rispetto ai computer di marca. Ma cosa vuol dire “PC assemblato”? Ci si può fidare, conviene, quali sono i risvolti negativi? Un computer assemblato è una macchina (desk o tower, non esistono portatili assemblati) che il rivenditore stesso non ha acquistato così com’è, bensì che ha creato lui stesso assemblando tutti i diversi componenti. Si sa che un qualsiasi produttore di personal computer, anche le marche più prestigiose ed importanti, non produce autonomamente quasi nessun componente dei personal che vende. I diversi componenti vengono acquistati sul mercato internazionale o, nel migliore dei casi, fatti costruire su specifiche particolari, e quindi assemblati nelle proprie fabbriche. Un construttore di PC è quindi, in realtà, un assemblatore di pezzi provenienti da diverse zone del mondo (spesso dall’estremo oriente). I componenti principali di un personal sono: CPU mother board RAM Hard Disk scheda video lettore di CD-ROM lettore di floppy disk tastiera mouse case (contenitore) alimentatore cavi di connessione fra i componenti cui si aggiungono spesso: scheda audio scheda SCSI scheda di rete La CPU, il processore principale, ad esempio, è prodotto da tre sole società. Anche i principali produttori di mother board o quelli dei lettori di CD-ROM si contano sulle dita di due mani. Aprendo il computer e leggendo le marche effettive dei componenti si può scoprire che due personal di marca diversa e venduti a prezzi differenti, in realtà sono perfettamente identici. Oppure che due esemplari dello stesso modello della identica marca hanno componenti diversi e di prestazioni differenti. Può succedere, infatti, che la società ABC, produttrice di personal, utilizzi per i propri modelli un hard disk della società ZXY. Di fronte ad una maggiore richiesta del mercato, la società ABC ha bisogno di un numero maggiore di hard disk che però la società ZXY non ha. ABC si rivolge quindi ad un altro produttore, comprando hard disk della stessa capacità ma, magari, con una velocità maggiore. Ecco quindi che due acquirenti dello stesso modello di computer della medesima marca si possano trovare, a loro insaputa, con hard disk dalle prestazioni differenti. Uno, più 30 fortunato, ha un hard disk più veloce dell’altro. E così per le mother board, le schede video, audio... Per consentire la massima facilità di assemblaggio, le stesse marche di personal hanno chiesto ai produttori di componenti di standardizzare il più possibile la loro produzione, proprio per evitare problemi di “shortage”, cioè per evitare che la mancanza di un singolo componente impedisca l’assemblaggio di migliaia di computer. Una fabbrica di componenti può fallire, essere vittima di un incendio, un terremoto, oppure bloccata da uno sciopero o da un grave guasto nella linea di produzione. La marca di personal deve essere in grado di reperire, nel più breve tempo, lo stesso tipo di componente perfettamente compatibile con quello mancante e così assemblare i personal da vendere. Qualche hanno fa, l’incendio di un importante produttore di processori di memoria RAM bloccò parecchie decine di migliaia di personal nelle fabbriche di tutto il mondo, completi di tutto ma mancanti di RAM! Essendo possibile comprare i singoli componenti dai grossisti di elettronica, qualsiasi rivenditore di computer è in grado di assemblare in brevissimo tempo, anche mezza giornata, il tipo di personal richiesto dal cliente. Basta che questo gli indichi le esigenze di prestazioni e quali componenti desidera, ed ecco che nasce un computer “su misura”. Vantaggi e svantaggi Il primo vantaggio è ovvio: avere esattamente quello che si vuole, né un Gb di più né uno di meno. Avere, cioè, una macchina che risponde esattamente alle proprie esigenze. Non è necessario prendere per forza la scheda sonora stereo, si può includere un secondo disco rigido per il backup, si può scegliere un lettore di CD-ROM nuovissimo e velocissimo... Il secondo vantaggio, non meno importante, è che la somma delle parti costa meno delle parti sommate. Se prendiamo le specifiche tecniche di un computer di marca e cerchiamo di ricostruirlo comprando i singoli componenti con le stesse caratteristiche e della stessa marca, o di marca equivalente, ci accorgeremo di spendere almeno un terzo di meno. E’ quella parte del prezzo di vendita destinato alle spese di gestione aziendale del produttore di computer, al canale di distribuzione ed alla pubblicità. Lo svantaggio principale è che sul computer che avremo sulla scrivania non compare una marca ben conosciuta, dotata di un canale di assistenza tecnica. Per eventuali guasti in garanzia, saremo legati al singolo rivenditore, mentre con un computer di marca ci potremo rivolgere anche ad un centro di assistenza di un’altra città. Se il rivenditore chiude, la nostra garanzia non varrà più nulla. Per cercare di ovviare a questo pericolo, sarà bene chiedere che i singoli componenti del personal assemblato siano di marca conosciuta, pagando leggermente di più. In questo modo, quand’anche il rivenditore fosse irreperibile, il disco rigido di marca XYZ può essere portato a riparare presso i centri di assistenza XYZ. Anche se queste prestazioni in garanzia sono da verificare volta per volta. Assemblaggio fai-da-te L’alta standardizzazione ha reso più facile l’assemblaggio dei personal anche alla singola persona, a patto che abbia tempo e voglia di risparmiare. Comprare i diversi componenti e assemblare in casa il proprio personal, infatti, porta ad un risparmio di quasi la metà rispetto all’acquisto di un personal di marca importante, ed almeno un terzo rispetto ai personal di marche meno conosciute o assemblati da rivenditori. Apre inoltre la possibilità di effettuare molto più facilmente e rapidamente gli upgrade, cioè, ad esempio, l’espansione della RAM. Il lavoro non deve spaventare, in quanto non è più necessario, come una volta, lavorare di cacciavite e saldatore. I componenti attuali si connettono fra di loro molto velocemente e non occorre nessuna competenza elettronica, informatica o elettrica. L’unica cosa importante è comprare i giusti componenti, in modo da non trovarsi con una mother board sulla quale non si possa montare la CPU e la RAM acquistata. 31 CPU Occorre partire dalla CPU. Di quale processore abbiamo bisogno? Quale velocità? Esistono processori di marca Intel (i più famosi e diffusi) e processori compatibili (e due altri produttori di CPU sono AMD e Cyrix, di recente fuse in un’unica società). I processori Intel sono di tipo Pentium III, o IV, oppure processori economici Celeron, mentre i corrispettivi AMD si chiamano Athlon, AthlonXP (noti anche come K7) e Duron (K6). Rimandiamo al cap. 2.XX per la descrizione dei processori e delle relative caratteristiche. Qui facciamo presente che, oltre ad avere diverse prestazioni, questi processori hanno anche diverse piedinature e richiedono diversi tipi di mother board. Ma attenzione: il fatto che due processori siano “fisicamente” compatibili, avendo lo stesso tipo di piedinatura, non vuol dire che possano essere intercambiabili sulla stessa mother board. Controllate sempre che il processore che intendete acquistare sia compatibile con la scheda madre che avete a livello di Front Side Bus e di moltiplicatore, in modo da sfruttatrlo alla frequenza ottimale. Considerate quindi le prestazioni di cui avete bisogno (operazioni matematiche, grafiche, multimediali, di rete...). Una volta scelta la CPU adatta (magari anche in base al prezzo), scegliete la mother board adatta. Mother board La mother board deve rispondere alle richieste della CPU, ma a sua volta ha altre caratteristiche e pone altre condizioni. Innanzi tutto di spazio: è di tipo ATX o di tipo Baby? Ne dipenderà le dimensioni della case destinata ad ospitarla. Su che chip set si basa: per Pentium II, IV, o per Amd?Con che tipo di memorie? E soprattutto, può ospitare la CPU prescelta, sia come tipo che come velocità? Le porte sono quasi sempre 2 seriali ed una parallela, almeno due USB e se siete fortunati una porta FireWire ed i controller sono 2 di tipo EIDE (per hard disk, lettori di CD-ROM, masterizzatori, unità a nastro...) ed uno FDD (per il lettore di floppy disk). Nelle mother board più recenti i controller EIDE permettono la connessione di due unità ciascuno. Nel montare le periferiche al controller EIDE è necessario verificare le rispettive velocità delle periferiche se si vogliono montare sullo stesso controller. La velocità del singolo controller dipende dalla velocità della periferica più lenta. Ecco quindi che se montiamo un hard disk ed un CD-ROM sullo stesso controller e ci accorgiamo che l’HD ha prestazioni inferiori al dovuto, è perché questo si deve adattare al CD-ROM più lento presente nello stesso controller. Se si hanno più di due periferiche da collegare, conviene montare insieme le due più veloci e lasciare sul secondo controller la o le periferiche più lente. Che tipo di slot ha, e quanti? La quantità ed il tipo di slot deve accordarsi con la quantità di schede da installare. Quanta memoria RAM vi può essere installata, come valore minimo e massimo? E di che tipo devono essere le schede RAM? DIMM, DDR oppure i veloci e costosi moduli RAMBUS? Quale deve essere la velocità, quale la piedinatura, e di quale tipo? RAM I moduli di memoria si riconoscono subito fisicamente per la quantità di pin di connessione: 168 per le DIMM e 184 per le DDR. Questo è il primo requisito fisico per poter inserire il modulo nella scheda madre. Il secondo requisito è la frequenza di clock del Front Side Bus, anche se oramai tutte le Dimm funzionano a 133Mhz. Come la mother board deve rispondere con esattezza alle richieste della CPU, così i moduli RAM devono rispondere alle richieste dalla mother board. 32 Costi Se consideriamo pari a 100% il costo di un personal assemblato in casa, i costi dei diversi componenti sono nella seguente proporzione: case e alimentatore 5%; CPU 17,5%; mother board 12,5%; RAM 10%; HD EIDE 15%; lettore CD-ROM 10%; drive FDD 5%; scheda audio 5%; scheda video 5%; scheda SCSI 5%; tastiera 7,5%; mouse e cavi 2,5%. Un personal con le stesse caratteristiche assemblato da un rivenditore costerebbe da 125% a 150% ed un personal di marca da 150% a 200%. 33 Il microprocessore Chiamato anche CPU, per Central Processing Unity, è l'elemento che determina le caratteristiche e le prestazioni del computer. Tutta la capacità di calcolo e di elaborazione sono condensati in questi pochi centimetri quadrati. I microprocessori vengono catalogati per famiglie, indipendentemente dalle prestazioni. Appartenere ad una determinata famiglia vuol dire condividere l'architettura, cioè la struttura logica interna. In genere il membro più recente della famiglia contiene nella sua architettura quella dei modelli precedenti, di modo che ne sia l'erede legittimo. Il software che funzionava con i microprocessori precedenti, funziona anche con il nuovo. Ogni modello di microprocessore è contrassegnato da una sigla che rappresenta la famiglia cui appartiene e il suo posto nella famiglia. Abbiamo, ad esempio, la famiglia di microprocessori 80x86. Derivati dall’8088 a 8 bit, il capostipite è stato il 8086, seguito da 80286, 80386 ed infine da 80486. Il processore successivo della gamma non si poté chiamare 586 per una questione di marchi registrati, per cui la generazione successiva si chiamò Pentium, che fu poi aggiornato con le funzionalità MMX (MultiMedia eXtensions) al quale fece seguito il Pentium Pro (686) e il suo gemello con le istruzioni MMX Pentium II, poi i Pentium III prodotti con due forme fisiche e due architetture differenti (SECC, o cartuccia e FCPGA, o socket, a 0,18 e 0,13 micron), in contemporanea ad essi uscirono i Celeron, versioni economiche derivate dai Pentium II, e infine i Pentium IV desktop e Xeon (per server). L’ultima generazione di processori Intel è a 64 bit, segue l’architettura IA64 e viene chiamata Itanium. Questa è la famiglia dei microprocessori usati dai computer DOS compatibili. I computer Macintosh usano quelli della famiglia 680x0, dal 68000 al 68020, 68030 e 68040. Anche in questo caso la sigla della famiglia viene scritta con una "x" al posto della quale ciascun modello porta il proprio numero d'ordine. Più questo numero è alto, maggiori sono le prestazioni del microprocessore. Casualmente, in queste due famiglie il modello con la "1" non è stato utilizzato in nessun computer. Caratteristiche tecniche La velocità di elaborazione viene misurata in MegaHertz, cioè in milioni di cicli al secondo. Questa però non è l’unico parametro da tenere in considerazione per valutare le prestazioni di un processore. Quando si legge che un microprocessore ha una velocità di 800 MHz, vuol dire che compie 800 milioni di cicli al secondo. In ogni ciclo, un impulso di dati transita fra un contatto e un altro all’interno del microprocessore. La velocità in cicli al secondo, in MHz, non può però dare una concreta misura della velocità di un microprocessore. Ogni comando che il microprocessore deve eseguire richiede, infatti, alcuni cicli per essere portato a termine. Per molte istruzioni bastano due cicli, mentre alcune ne richiedono alcune diecine. Inoltre comandi sono in un linguaggio molto sintetico, chiamato linguaggio macchina, ma sono pur sempre numerosi. Il 80286 ne ha 120, nel 80386 sono 155 ed infine sono 250 nel 80486. Ciò complica il lavoro del microprocessore in quanto più sono i comandi più è complesso il compito di interpretarli. Un microprocessore che abbia una velocità in MHz doppia di un altro, non è detto che svolga istruzioni al doppio della velocità. Pur essendo maggiore la velocità del microprocessore, la sua velocità effettiva di lavoro non è aumentata in modo proporzionale. Soprattutto se l'architettura interna è meno efficiente, a causa dell'alto numero di comandi o di una concezione qualitativamente inferiore. Oppure il suo linguaggio macchina richiede un più alto numero di cicli per l'esecuzione di ciascun comando. Un altro parametro da tenere in considerazione è la frequenza del Front Side Bus, cioè la frequenza del collegamento tra la memoria RAM e il microprocessore. Ad ogni ciclo del FSB una “pagina” di dati viene scambiata tra RAM e processore, pronta ad essere elaborata. Questo parametro, che solitamente non è pubblicato nei listini, è un parametro legato all'architettura della classe di processori. Ciò e tanto più vero quando si vanno a confrontare microprocessori appartenenti a diverse famiglie, quindi con architetture e linguaggi macchina diversi. Un’altra caratteristica di cui va tenuto conto è la quantità di memoria cache presente sul processore. I processori dal 486 in poi hanno 16 byte di memoria cache di primo livello (L1), ma dal Pentium si è cominciato ad incorporare nei processori anche la cache di secondo livello(L2). Si tratta di uno speciale modulo di memoria RAM, quindi che si cancella ad ogni 34 spegnimento, ma che non è direttamente utilizzabile per caricare programmi da eseguire come la normale RAM. Questa memoria aggiuntiva funziona alla stessa velocità del processore, quindi è molto più veloce della RAM di sistema, e viene utilizzata per tenere in memoria i dati a cui il processore accede più spesso o di cui il processore prevede di farne uso a breve tempo. Ad una nuova richiesta di caricamento di quei dati, il sistema operativo esamina il contenuto della scheda cache e solo se non vi trova il file richiesto ne effettua la lettura da RAM o disco. Se quella frazione di programma o documento era stata recentemente utilizzata, è già presente nella cache e quindi il sistema operativo ne effettua il caricamento senza alcuna lettura esterna. Essendo il caricamento da memoria cache di gran lunga più veloce di quello da RAM e da disco, ne deriva la conseguenza che la presenza di una scheda di memoria cache velocizza le operazioni. Processore Intel Celeron Intel PIII SECC Intel PIII FCPGA Intel PIV Frequenza Massima 1400 Mhz 500 Mhz 1333 Mhz 2800 Mhz AMD K6 (Duron) AMD K7 (Athlon) AMD Athlon XP Intel Xeon Intel Itanium 1300 Mhz 2400 Mhz (2800+) 2400 Mhz (2800+) 2800 Mhz 733-800-900 Mhz 1 Ghz Freq FSB 100 Mhz 100 Mhz 133 Mhz 400-533 Mhz (DDR) 2 channel 100Mhz (200 Mhz DDR) 200-266 (DDR) 266-333 (DDR) 400 Mhz 200 DDR Cache 128 Kb 256 Kb 256 Kb 512 Kb 128 Kb 256 Kb 256 Kb 512 Kb 2 Mb Microprocessori RISC Nelle più recenti famiglie di microprocessori il numero dei comandi è stato portato a poche diecine: sono rimasti solo i comandi corrispondenti alle operazioni principali, ed hanno una struttura molto semplice. La gran parte delle operazioni viene così eseguita in un solo ciclo e l'architettura interna è stata resa più efficace. Questo tipo di microprocessori viene chiamata RISC, dall'inglese Reduced Instruction Set Computer, in contrapposizione al vecchio tipo, chiamato CISC, Complex Instruction Set Computer. Mentre, ad esempio, il linguaggio macchina del 8086 possiede più di 100 comandi e quello del 68000 possiede 55 comandi, quello del MIPS RISC ne ha solo 22. D'altra parte, nella maggior parte dei programmi vengono utilizzati effettivamente solo il 20% dei comandi esistenti nei microprocessori CISC. Un certo numero di istruzioni, le meno importanti, che prima corrispondevano ad un comando che è stato abolito, richiedono ora una successione di comandi principali per essere eseguite. Ma essendo poco frequente l'uso di queste istruzioni, non ha conseguenze sulle prestazioni del microprocessore. Microprocessori RISC della nuova generazione, come lo i860, hanno una architettura interna che permette l'esecuzione contemporanea di istruzioni. Ad ogni ciclo vengono eseguite un numero istruzioni. Il microprocessore RISC sarà il cuore dei personal dei prossimi anni. L'unico ostacolo è l'alto costo, ma molti produttori di personal, come IBM ed Apple, stanno investendo milioni di dollari nella ricerca scientifica per la messa a punto di un RISC meno costo ed ancora più efficiente. Attualmente microprocessori RISC sono utilizzati prevalentemente in alcune schede grafiche per l'elaborazione di immagini fotografiche a colori ed in stampanti laser ad alte prestazioni. 35 Considerazioni finali Se è il microprocessore che determina le caratteristiche di un computer, vediamo come possiamo identificarli: Processore Intel 8088 8086 80286 (286) 80386 (386) Bus dati 8 bit 16 bit 16 bit 16 bit reali / 32 bit virtuali 80486 Pentium Pentium MMX Pentium Pro Pentium II e Celeron Pentium III SECC Pentium III FCPGA 32 bit reali 32 bit reali 32 bit reali 32 bit reali 32 Bit reali Frequenza FSB 4,77 – 8 Mhz 8 Mhz 12-16 Mhz 16 –20 mhz (386SX) 25 – 33 Mhz (386 DX) 25 –33 Mhz di FSB * FSB a 33 Mhz ** FSB a 33 Mhz *** FSB a 66 Mhz FSB a 66 Mhz 32 Bit reali FSB a 100 Mhz 32 bit reali FSB a 133 Mhz Data di introduzione 1981 1984 1987 1989 1991 1994 * con i processori overdrive che moltiplicavano la frequenza i 486 DX arrivavano a 50, 66 e 100 Mhz ** i Pentium utilizzavano già il moltiplicatore esterno e raggiungevano le velocità di 120 Mhz *** Velocità reali fino a 266 Mhz, i Pentium MMX ebbero cloni da AMD, Cyrix e IBM e furono utilizzati per lungo tempo Clock Tutte le operazioni che avvengono in un computer sono composte da impulsi elettrici. Questi impulsi vengono emessi ad intervalli regolari da un processore clock, vero e proprio cuore che batte nella scheda madre. Gli impulsi del clock servono a scandire tutte le elaborazioni dei vari processori e tutti i passaggi di dati. In particolare è il clock che impone la velocità al microprocessore. La velocità a cui oscilla il clock, in MegaHertz, deve essere uguale a quella che il Front Side Bus, cioè il collegamento esterno del Processore, può sostenere. Non è quindi possibile togliere un microprocessore lento e sostituirlo con uno più veloce su una scheda madre che abbia un clock con frequenza pari alla velocità più lenta. O meglio: il microprocessore funzionerebbe, ma alla velocità del clock. Il clock non deve essere confuso con l'orologio presente su gran parte dei computer, che invece serve solamente a registrare l'ora e la data per ogni registrazione di dati su disco. Per poter conservare il calcolo del tempo anche a computer spento, l'orologio è alimentato da una batteria cambiabile o autoricaribile. Il clock non ha bisogno di funzionare a computer spento. 36 La memoria In ogni personal computer vi sono due tipi di memoria: • una memoria di archiviazione, che serve a registrare il sistema operativo, i programmi ed i documenti. Questo tipo di memoria conserva permanentemente le informazioni registrate. Sono memorie di archiviazione il disco rigido, i dischetti, i CD-ROM... (vedi capitolo “Le unità di memoria di massa”); • una memoria di lavoro, che serve per accendere il computer, per caricare il sistema operativo e per lavorare con i programmi ed i documenti. La memoria di lavoro è costituita da chip montati sulla scheda madre o su moduli aggiuntivi. La memoria di lavoro si divide in due parti: • memoria ROM, che serve ad accendere il personal; • memoria RAM, che serve a lavorare. Quando si accende un personal, si attiva la memoria ROM, che da vita al computer e che provvede a caricare il sistema operativo dal disco rigido (memoria di archiviazione) alla memoria RAM. Qui il sistema operativo si installa e “prende possesso” del computer. Quando vogliamo lavorare con un programma, cioè quando lo mandiamo in “esecuzione”, oppure quando “apriamo” un documento per modificarlo, il sistema operativo legge dal disco rigido il programma e/o il documento e li carica nella memoria RAM. Qui possiamo lavorare con il programma, modificare un documento, crearne uno nuovo. Tutto il lavoro sui documenti si svolge nella memoria RAM e deve essere considerato provvisorio finché non venga “salvato”, cioè non si chieda al sistema operativo di registrare il lavoro effettuato su un disco rigido o su un’altra memoria di archiviazione. La memoria RAM, infatti, deve essere continuamente tenuta in vita da impulsi elettrici ed in mancanza di questi, quando il computer viene spento, perde tutti i dati caricati. Per questo la memoria RAM viene chiamata “volatile”: basta poco, una mancanza di elettricità, qualcuno che inciampa nel filo della corrente, perché tutto il lavoro svolto fino a quel momento scompaia come una scritta sulla sabbia per un colpo di vento. La memoria ROM, invece, servendo proprio ad accendere il personal, rimane sempre inalterata. Memoria ROM La memoria ROM, dall’inglese Read Only Memory, è un tipo di memoria permanente, non “volatile”, e che non può essere modificata dall’utente del computer. Quando il computer ci viene venduto possiede già una piccola dotazione di software intallato nella memoria ROM. Software, ripetiamo, che è registrato permanentemente e non può essere né cancellato, né modificato. Memoria RAM Oltre ai chip della memoria ROM, che è di sola lettura, esistono altri chip di memoria. Questa volta si tratta di memoria vuota, a disposizione dell’utente. Anzi: a disposizione del computer, il quale ha necessità, per poter eseguire un programma ed elaborare dei documenti, di caricare in memoria sia il programma che i documenti. Questa memoria viene chiamata RAM, dall’inglese Random Access Memory, cioè “memoria ad accesso casuale”. Il che non vuol dire che il computer carica programmi e dati “dove capita, capita”, ma sottintende una procedura molto più complessa di quella che il nome lascia intendere. Se diamo ad un computer il comando di eseguire un determinato programma, questo viene letto dal disco e caricato nella memoria RAM. La proprietà “casuale” della memoria RAM viene fuori quando inizia l’esecuzione del programma. Tutti i programmi sono composti da vari spezzoni, ognuno dedicato ad un’attività diversa. Ci sarà uno spezzone per la visualizzazione su schermo, un altro per l’elaborazione del testo, altri ancora per l’effettuazione di calcoli o la creazione di grafici. Ogni spezzone è stato caricato in memoria l’uno dopo l’altro senza suddivisione, ma in una parte apposita del 37 programma sono “dichiarate” le lunghezze dei vari spezzoni. Quando si verifica il bisogno di uno spezzone, il computer non è costretto a leggersi tutto il programma dall’inizio alla fine. Sapendo dove inizia il programma e la lunghezza dei vari spezzoni, è semplice andare direttamente a leggere nel punto giusto. Né conta se quel programma è stato registrato in una parte od in un’altra della memoria. “Casuale”, in questo caso, è contrapposto a “sequenziale” e vuol dire semplicemente che si può andare a leggere una qualsiasi posizione di memoria. Volatilità della RAM Non soltanto la memoria RAM è vuota quando acquistiamo il computer, ma anche tutte le volte che lo accendiamo. In essa, infatti, non è possibile conservare permanentemente un programma. La RAM è “volatile”: ha bisogno continuamente della corrente elettrica che alimenta il computer, altrimenti perde il suo contenuto. Del resto i programmi che utilizziamo sul nostro computer sono molti: se ognuno di essi venisse tenuto per sempre in memoria, ben presto dovremo iniziare ad aumentare incessantemente i chip di memoria per poter ancora lavorare. Quindi, molto semplicemente, quando spengiamo il nostro computer, tutto quello che è stato caricato nella memoria RAM viene cancellato. Riguardo ai programmi, nessun problema. Essi sono registrati sul disco rigido e, volendo di nuovo lavorare con quel programma, basta chiederne l’esecuzione ed il sistema operativo provvede a caricarlo in memoria RAM. Il problema sorge per i documenti. Se abbiamo creato un documento nuovo, o modificato uno già esistente, il documento si trova ancora in memoria RAM. Spengere il computer in questo momento provoca la cancellazione della memoria RAM e quindi la perdita di tutto il lavoro che non abbiamo provveduto a registrare sul disco rigido. Lo spegnimento del computer potrebbe anche non essere volontario: il contatore che salta, un blackout della corrente, un collega che inciampa nel cavo e stacca la spina, sono incidenti probabilissimi che causerebbero la perdita di tutto il lavoro in corso e non ancora registrato. E’ buona regola registrare frequentemente su disco rigido il lavoro che si sta facendo, oppure subito dopo operazioni importanti di modifica. Dimensione della RAM La dimensione della memoria RAM è un elemento molto importante nella configurazione di un computer, seconda solo alle caratteristiche del microprocessore. Più RAM abbiamo nel computer, più questo potrà lavorare con programmi complessi ed elaborare un maggior numero di dati. Se la memoria RAM non basta a contenere un programma, questo non può essere eseguito. Se il programma entra nella memoria, ma il documento sul quale vogliamo lavorare non può essere caricato nella parte libera rimasta, il sistema operativo è costretto ad effettuare continue operazioni di registrazione e di lettura del documento. Il sistema operativo carica in memoria solo una parte di documento e, quando chiediamo di andare avanti nel lavoro, la registra sul disco per poter leggere e caricare in memoria la porzione successiva. Uguale impegno viene richiesto da programmi particolarmente complessi che sono stati frazionati in un certo numero di file. Il sistema operativo, di volta in volta, carica dal disco quello richiesto. Questo tipo di frazionamento è molto diffuso, perché facilità la compatibilità verso macchine con memoria inferiore a quella teoricamente necessaria. A livello fisico la memoria RAM viene venduta in barrette, che nei computer moderni si chiamano DIMM (Double Inline Memory Module, Moduli di memoria a doppia linea), e hanno 168 contatti nella versione SDRAM. Ciascun modulo contiene infatti una doppia linea di chip di memoria e viene visto come se fossero due banchi di memoria. La capacità varia tra i 64 e i 512 Mb per ogni modulo. I moduli non sono legati in alcun modo tra di loro, quindi fino a raggiungere la massima capacità supportata dalla scheda madre, possono essere mescolati a piacere. SDRAM significa Syncronous Data RAM, e sta ad indicare che il trasferimento dei dati avviene in sincronia col clock di sistema. Esistono altre memorie che possono essere utilizzate, anche se non mescolate con le SDRAM. Un tipo molto utilizzato sono le memorie DDR (Double Data Rate) che funzionano teoricamente a 38 velocità doppia delle SDRAM poiché trasferiscono una doppia quantità di dati per ogni ciclo del clock di sistema. Non sono compatibili nemmeno a livello fisico, avendo 184 contatti suddivisi in due gruppi, mentre le SDRAM usano 168 contatti in tre gruppi. Le DDR sono state sviluppate da AMD per i propri processori DDR (K6 ma soprattutto K7). Un ulteriore tipo di RAM che si può incontrare, soprattutto nei PC di fascia alta, è la RDRAM, sviluppata da RAMBUS (consorzio di Intel e Kingston) per i Pentium 4, ma poco implementata perché molto costosa. Utilizza canali multipli a 400 Mhz e a 16 bit per comunicare col processore, ciascun modulo occupa due piste di contatti ed eventuali piste libere devono essere “chiuse” con un terminatore di tensione. Memoria virtuale Dovendo utilizzare più di un programma contemporaneamente, può darsi che la somma della memoria RAM richiesta dai programmi superi la capacità della memoria RAM installata. In questo caso è possibile simulare la presenza di una quantità superiore, anche doppia o tripla, di RAM. Questa memoria “inesistente” viene chiamata “memoria virtuale”. Per la creazione della memoria virtuale ci si può servire del sistema operativo (Windows ‘9x e Macintosh 7.x) o di appositi programmi d’utilità. Il metodo di creazione della memoria virtuale è, nei due casi, diverso. Il sistema operativo utilizza principalmente il disco rigido. Quando abbiamo uno o più programmi in memoria RAM e ne vogliamo caricare un altro, e la somma della memoria richiesta dai programmi supererebbe la RAM fisicamente disponibile, il sistema operativo registra su disco rigido i programmi non attivi (compresi gli eventuali documenti aperti con quei programmi) e quant’altro sia possibile scaricare temporaneamente dalla RAM, per lasciare posto al nuovo programma. Quando chiederemo di tornare a lavorare con uno dei programmi precedenti, il sistema operativo scaricherà su disco il programma diventato inattivo (compresi i documenti aperti) e caricherà nella RAM il programma richiesto. Con questo metodo possiamo utilizzare più RAM di quella fisicamente presente nel personal. Dovremo però pagare due pedaggi: meno spazio disponibile su disco e velocità ridotta di lavoro. Sul disco rigido, infatti, viene creato un file invisibile di sistema pari alla dimensione complessiva della memoria virtuale. Se abbiamo installato RAM per 8Mb e, grazie alla memoria virtuale, vogliamo fingere di averne 16Mb, il sistema operativo deve creare un file di 16Mb su disco, riducendo lo spazio a disposizione per registrare documenti e software. D’altra parte, tutte le volte che passeremo da un programma all’altro fra quelli mandati in esecuzione, dovremo aspettare che il sistema operativo scarichi dalla RAM il programma non più attivo e carichi il programma al quale abbiamo chiesto di passare. Il metodo utilizzato dai programmi di utilità per la creazione della memoria virtuale è diverso. Invece di ricorrere subito alla registrazione su disco rigido, il programma di utilità compatta i programmi non attivi e li comprime nella stessa RAM. Questa operazione crea già abbastanza spazio libero senza grosse perdite di tempo, non essendoci operazioni di scrittura/lettura su disco. I programmi, inoltre, occupano sempre meno spazio di quello che richiedono. Un programma che chiede 4Mb di RAM, ad esempio, in effetti ne occupa anche la sola metà, in situazione di inattività. L’utilità, da una parte comprimendo il programma, dall’altra recuperando lo spazio non utilizzato, riesce a “ricavare” abbastanza memoria da ospitare altri programmi. Solamente a questo punto, se lo spazio ancora non basta, ricorre alla registrazione su disco. Si tratta, però, della registrazione di dati compattati, e quindi le operazioni di scrittura/lettura sono molto più veloci di quelle richieste dal sistema operativo. Il file creato dal programma di utilità è a grandezza dinamica, cioè non occupa uno spazio su disco pari al totale della memoria virtuale, bensì occupa uno spazio variabile a seconda della necessità. Con la memoria virtuale, quindi, possiamo caricare in memoria molti più programmi e documenti di quanti la RAM fisica permetterebbe. L’unico requisito è che ciascun singolo programma non superi, da solo, la capacità della memoria fisica. Se abbiamo 8Mb di RAM espansa a 16Mb virtuali, non possiamo caricare nessun programma che, da solo, richieda più di 8Mb. Possiamo caricarne tre da 4Mb ciascuno, ma non uno da 9Mb. 39 La scheda madre La scheda madre è una parte essenziale del PC perché tiene insieme a livello fisico i vari componenti ma in contemporanea permette la comunicazione tra il processore e le varie schede di interfaccia e porte esterne. Questo compito di coordinare l’accesso alle periferiche da parte del processore viene fatto tramite un insieme di Chip chiamato CHIPSET, che è costituito principalmente da due chip, chiamati Northbridge e Southbridge e rispettivamente utilizzati per far dialogare il processore con la Ram e il processore con gli altri bus di sistema. Come si può intuire, ogni chipset è costruito intorno ad un processore specifico (o meglio, una famiglia di processori), e può supportare un tipo di memoria e un insieme di porte di comunicazione differenti. Avremo così Chipset per Pentium 4 con Rambus, con DDR o con SDRAM, che supportano o non supportano USB e FireWire, e poi Chipset per AMD con SDRAM o DDR e così via. I produttori di chipset sono 4, Intel, Via, Sis e Soyo. Sulla scheda madre sono presenti alcuni connettori, chiamati slot, in numero vario da modello a modello, otto nella maggior parte dei casi. In questi connettori è possibile inserire schede con impieghi particolari. Nei primi modelli di personal vi venivano inserite la scheda per il video, la scheda per il disk drive, quella per la porta seriale, quella per la porta parallela, quella per il disco rigido. Nei personal recenti gran parte di queste schede, o meglio, i loro componenti sono incorporati nella scheda madre e quindi gli slot sono stati ridotti di numero o sono stati lasciati liberi per altri usi. Del resto oggi sarebbe improponibile commercializzare un computer non dotato di disco rigido e di floppy disk, mentre la miniaturizzazione portata dall'avanzamento della tecnologia ha consentito di inserire i componenti di queste schede già sulla scheda madre. Ciò rende il computer più economico e più efficiente. Riduce inoltre le possibilità di acquisti di schede inadatte al computer ed evita le complicate procedure di installazione. Le schede incorporate nella scheda madre e quelle inserite negli slot, che si tratti di quella video, un modem su scheda, o di una scheda per la connessione in rete, hanno uno scambio di dati con il computer. Il percorso con il quale avviene questo scambio viene chiamato bus dei dati, ed il modo nel quale lo scambio avviene può seguire diversi standard. I più comuni, in ambiente PC, sono: - - - - - ISA, Industrial Standard Architecture, nata con i computer IBM di tipo AT, con microprocessore 80286; ormai abbandonata, ha ampiezza di dati di 8 o 16 bit ed è stata utilizzata come interfaccia tuttofare fino a poco tempo fa. Con la seconda generazione di Pentium III è stata definitivamente abbandonata. EISA, Enhanced Industrial Standard Architecture, adottata da molti computer DOS compatibili, a 32 Bit, utilizzata per i controller dei dischi e le schede di rete ad alte prestazioni sui file server (di classe 386). VESA, introdotta con i 486, (Video Expert Standard Architecture), principalmente per schede video e controlled ad alte prestazioni, otteneva i 32 bit di ampiezza di bus dati aggiungendo un ulteriore slot in serie ad una porta ISA, quindi poteva essere usata sia come ISA che come VESA PCI (Peripheral Connection Interface) è la più diffusa ai giorni nostri, permette un bus dati a 32 bit e il DMA, cié l’accesso diretto alla memoria. Tutte le schede interne, oggigiorno sfruttano il BUS PCI. I controller dei dischi e delle porte esterne sfruttano un Canale PCI non associato a nessuno slot. AGP (Accelerated Graphic Port), è un canale, più che un BUS, per il collegamento di una scheda video alla Main Board. Permette al processore grafico di utilizzare parte della RAM di sistema per le proprie elaborazioni. Non ci può essere più di uno slot AGP per ogni MainBoard, così purtroppo le schede madri che usano chip grafici integrati non hanno possibilità di espansione. 40 Poiché tutto il traffico di segnali, all'interno della scheda madre, è temporizzato dal clock, anche questo scambio di dati fra scheda madre e schede negli slot avrebbe dovuto essere sincronizzato. In realtà non è così. Il fatto è che le velocità dei clock nei personal variano moltissimo, come abbiamo visto. Ad esempio, si passa dai 4,77MHz, agli 8MHz, ai 12MHz, per salire ai 16MHz, ai 20MHz ed ai 33MHz. Tuttavia la gran parte delle schede esistenti non potrebbe funzionare alle velocità più elevate, senza contare la tendenza di molti utilizzatori di personale che, cambiando computer, vogliono conservare l'uso delle schede acquistate e non essere costretti a buttarle via. Ecco quindi che i costruttori delle schede madri hanno dovuto inserire un processore che funziona da filtro fra la velocità del clock e quella effettiva di scambio di dati con le schede. BUS Dati Isa Eisa Vesa PCI AGP Ampiezza del Bus 8/16 bit 32 bit 32 bit 32 bit 64 bit Frequenza del Bus 8,33 Mhz 8,33 Mhz 25-33 Mhz 48,3 Mhz 66-133-266 Mhz (Base, 2x, 4x) Riassunto caratteristiche dei bus più utilizzati Oltre alla scheda video, a quella di interfaccia per i dischi ed a quella di rete, negli slot possono essere inserite schede per i più svariati impieghi: - elaborazione multimediale, che può ricevere e produrre un segnale video inviabile alle normali apparecchiature televisive, come televisori, videoregistratori, banchi di mixaggio; o che può ricevere, tramite un sintonizzatore, le immagini trasmesse dalle ordinarie stazioni televisive; - elaborazione fotografica, con il trasporto su pellicola per diapositiva delle immagini del video e, viceversa, per la registrazione sul computer di immagini riprese con le moderne macchine fotografiche a dischetto magnetico; - ricezione satellitare, in grado di sintonizzarsi, tramite una antenna, sulle trasmissioni provenienti dai satelliti di rilevamento meteorologico; - compressione dei dati, per la registrazione di documenti in forma compattata, permettendo al disco rigido di contenere più dati di quanto sarebbe possibile. La scheda si occupa di compattare in fase di registrazione e di scompattare in fase di lettura da disco, comportando un piccolo ritardo in tutte le operazioni; - accelerazione della capacità elaborative, con schede che contengano microprocessori più veloci che si sostituiscano a quello del computer o che lo affianchino nei suoi compiti; - elaborazione musicale, grazie alla quale è possibile gestire strumentazione musicale MIDI, eseguendo musica sugli strumenti, registrandola su dischetto od elaborandola sul computer. E' anche possibile, tramite un microfono, digitalizzare suoni di qualsiasi tipo, musica, voce; - strumentazione di laboratorio per ogni scopo scientifico. Il computer può cosi guidare e ricevere dati da molte apparecchiature di analisi; - lavorazione industriale, come guida e controllo di macchinari robotizzati; - riconoscimento della voce, per il riconoscimento dei comandi impartiti tramite espressioni vocali. Processore DMA Il processore Direct Memory Access gestisce il flusso di dati fra la memoria del computer ed alcune periferiche abilitate al DMA, alleggerendo il lavoro del microprocessore. Lo scambio di dati con le periferiche è quindi più veloce, perché ha un diretto accesso in memoria e non deve attraversare l'architettura del microprocessore. 41 Porte Esterne Il computer deve comunicare i dati che elabora. Ad esempio, se il risultato di una elaborazione deve essere stampato, i dati relativi vengono inviati alla stampante. L'uscita di questi dati avviene attraverso alcuni connettori esterni presenti nella parte retrostante del computer. Come si potrà verificare dai dati tecnici descritti nel manuale del computer, sono presenti almeno una porta seriale ed almeno una porta parallela. A queste porte vengono collegati tutti i dispositivi accessori, con i quali è necessario uno scambio di dati in entrambe le direzioni. La differenza fra questi tipi di connettori va al di là delle loro semplici dimensioni e dalla quantità di piedini presenti, e riguarda il modo in cui i dati vengono trasmessi da e per le periferiche. Gli impulsi di dati sono formati da singoli bit, ma l'unità minima significativa è il byte, cioè otto bit. Nella porta seriale, i dati che vengono trasmessi alla periferica sono inviati un bit alla volta: i bit viaggiano in serie, l'uno dopo l'altro sullo stesso filo. Per trasmettere un byte, sono necessari otto invii. Sono porte seriali le porte RS-232, le porte PS/2, le USB e le FireWire Nella porta parallela, i dati che vengono inviati alla periferica sono trasmessi un byte alla volta: i bit viaggiano insieme, parallelamente su otto fili. Per trasmettere un byte è necessario un solo invio. La porta seriale standard consente il transito dei dati in entrambe le direzioni, sia dal computer alla periferica che dalla periferica al computer. L'utilizzazione principale di questa porta avviene nel caso di collegamenti con periferiche attive, come mouse, modem, penne ottiche. Questa porta viene gestita da un chip chiamato UART (Universal Asyncronous Receiver Transmitter) Tipo Uart 8250/8250b 16450 16550a/f Velocità Max in Kbit/s 9600 19200 115000 (buffer fifo) Molto spesso il connettore della porta seriale ha 9 punti di contatto, in altri casi 25: uno serve per i bit in trasmissione, uno per i dati in arrivo, uno è per il collegamento a terra, gli altri per lo scambio di particolari segnali fra le periferiche ed il computer. Questi segnali riguardano, ad esempio, lo stato di "pronto a ricevere" della periferica o del computer e quello di "richiesta di invio". Questi connettori sono spesso identificati con la sigla "RS232C". A volte la porta seriale viene utilizzata per il collegamento di alcune stampanti e dei plotter, anche se il traffico dei dati è in un senso solo. Il traffico dei dati attraverso la porta seriale può avvenire a diverse velocità e con diverse sequenze di bit. In particolare, poiché spesso lo scambio dei dati avviene a distanza di qualche metro, è necessario prevedere anche lo scambio di alcuni segnali di controllo che permettano di verificare che i bit ricevuti siano uguali a quelli trasmessi. L'interferenza di macchinari elettrici, come monitor, computer o stampanti, potrebbe danneggiare il flusso dei bit durante il loro viaggio lungo il cavo. La velocità di trasmissione, la struttura dei pacchetti di bit inviati ed il tipo di controllo effettuato, determinano il protocollo usato nella trasmissione dei dati. I diversi protocolli sono stabiliti internazionalmente. La porta seriale consente anche il collegamento fra computer, sia direttamente tramite un cavo, che a lunghe distanze, tramite modem. In entrambi i casi è molto importante stabilire in precedenza il protocollo di trasmissione da entrambe le parti. In particolare, la trasmissione dei dati può variare in velocità da 96.000 bit al secondo nella comunicazione diretta fra due computer, a 300 bit per secondo quando si tratta di computer distanti e la comunicazione è effettuata tramite linea telefonica. La comunicazione più frequente, tramite modem, avviene a 2'400 oppure a 1'200 bit per secondo. 42 La porta parallela consente il transito in una sola direzione: dal computer alla periferica. Viene quindi usata quasi esclusivamente per il collegamento con le stampanti. I connettori della porta seriale hanno 25 oppure 36 punti di contatto, otto dei quali per l'invio dei dati e gli altri per l'invio e lo scambio di segnali. Anche se non può ricevere dati, la porta parallela può ricevere segnalazioni dalla periferica, come il segnale di "occupato" o quello di "carta esaurita". I connettori della porta parallela sono spesso identificati con la scritta "Centronics". La porta parallela consente una maggiore velocità di trasmissione, in quanto ciascun byte viene trasmesso in una sola volta. Per questo è preferibile nell'uso con dispositivi lenti, come le stampanti. La trasmissione parallela non consente però un controllo sulla identità fra i dati trasmessi e quelli ricevuti. Quindi, pur consentendo una maggiore velocità, permette solo collegamenti a breve distanza. La trasmissione parallela non ha protocolli ma tre modalità di funzionamento, di cui due bidirezionali. La modalità SPP (Standard Parallel Port) è monodirezionale e raggiunge 150 Kb/s di velocità La modalità EPP (Enhanced Parallel Port) è bidirezionale, usa un canale IRQ per indicare al processore che ha bisogno di attenzione e trasmette i dati a 500 Kb/s. E’ usata per stampanti e scanner. La modalità ECP (Enhanced Communication Port) è bidirezionale, oltre al canale IRQ necessita di un canale DMA e raggiunge i 2 Mb/s. E’ usata per stampanti e unità a dischi esterne. Le ultime schede madri possono supportare le porte Parallele in modalità mista ECP+EPP e decidere quando usare una modalità e quando l’altra. USB USB (Universal Serial Bus) è la porta tuttofare di nuova generazione, e dai sistemi basati su Pentium II è presente su tutti i PC. Ciascuna porta USB supporta fino a 127 periferiche in cascata, collegate tra di loro tramite HUB (concentratori), ed esiste in tre versioni. La verione più commercializzata è la USB 1.1, in due velocità, 1,5 Mbit/s e 12 Mbit/s. La versione moderna, ancora poco commercializzata, la USB 2.0 arriva a 480 Mbit/s, ma non è compatibile in modalità mista con la USB 1.1. I connettori USB sono autoalimentati, composti da 4 cavetti, due per i dati e due per la tensione (12V, 5 mA), anche se per connettere periferiche che assorbono tanta energia è necessario utilizzare hub alimentati o meglio periferiche autoalimentate. FireWire Le periferiche FireWire sono state introdotte al grande pubblico da Apple sui suoi iMac. Sono un bus più veloce rispetto alla USB 1.1 e vengono utilizzate prevalentemente con unità di memoria di massa, come ad esempio Hard Disk esterni o videocamere digitali. Supporta fino a 63 periferiche alla velocità di 400 Mbit/s e non ha necessità di un PC per funzionare. E’ implementato soprattutto sulle videocamere in formato digitale miniDV, in quanto permette il trasferimento del filmato digitale e il montaggio in tempo reale tra Videocamera e Videoregistratore o PC. Al momento sono ancora abbastanza costose e poco implementate in fabbrica, anche se alcuni modelli di iMac vengonovenduti con queste porte già incorporate. Firmware e BIOS Questo software viene chiamato firmware, cioè saldo, fisso, e comprende anche tutte le basilari istruzioni utilizzate dai programmi per avere accesso ai diversi componenti hardware come il video, il mouse, le porte di comunicazione ed i dischi floppy o rigidi. 43 Fa parte del firmware, ad esempio, il BIOS, cioè quel gruppo di istruzioni che consente ai diversi processori di attivarsi al momento dell’accensione del computer, di rispondere agli impulsi del clock e di effettuare un piccolo autotest di funzionamento. Infine viene letto il sistema operativo presente sul disco rigido e, dopo essere stato caricato nella memoria RAM, gli viene ceduto il controllo del sistema. La ROM è definita nella configurazione base di ciascun computer e la sua grandezza non ha molto a che vedere con le prestazioni del personal, con la sua velocità di elaborazione o la sua potenza. Per quanto riguarda il firmware, esso viene installato dalla ditta costruttrice della macchina e non è modificabile. Anche se spesso la presenza e la quantità della memoria ROM sulla scheda madre o sulle schede accessorie viene evidenziata nei manuali o nei depliant dei computer, l’utente non ha alcun beneficio nel conoscerne le dimensioni o le caratteristiche. L’attività del firmware presente nella memoria ROM è del tutto invisibile. Nei personal più vecchi era necessario sostituire la ROM, per sostituire il firmaware contenuto, quando si voleva aggiungere un dispositivo hardware che non era previsto quando era stato costruito il computer ed installato il firmware. E’ una operazione, ad esempio, che deve fare chi voglia collegare un disco da 3,5 pollici ad un vecchio computer con 8086, nato quando questi non esistevano ancora e si usavano i dischi da 5 e 1/4. Con i sistemi attuali, invece, tale funzione di compatibilità con periferiche nuove viene svolto da porzioni del sistema operativo chiamati “driver”. Ogni periferica nuova che si collega al computer (stampanti, unità di memoria di massa, schede...) richiede che venga intallato il proprio driver nel sistema operativo e non necessita più modifiche alla ROM. Oltre alla memoria ROM presente sulla scheda madre, un computer può avere anche altra memoria ROM inclusa in schede specializzate inserite nei connettori. Questo tipo di schede hanno spesso bisogno di un programma apposito per poter svolgere le proprie funzioni. Niente di più naturale, ed economico, che includere questo programma in una ROM che, saldata alla scheda stessa, non corre il pericolo di danneggiarsi o di essere persa come potrebbe accadere ad un dischetto. Flash-ROM e Boot-ROM In alcuni personal, da scrivania o portatili, vengono inserite memorie ROM speciali, contenenti parti del sistema operativo come firmware. Queste ROM vengono chiamate Flash-ROM o Boot-ROM, perché consentono di avviare il computer e di trovarsi pronti al lavoro in pochi secondi. Essendo, però, a sola lettura, queste memorie non consentono di aggiornare il sistema operativo, se non con la sostituzione delle ROM stesse, sempre che il produttore abbia mantenuto quel particolare modello di personal ancora in produzione. In altri computer, ad esempio i notebook, nelle ROM non solo è stato inserito il sistema operativo, ma anche alcuni programmi applicativi: un word processor, un foglio di calcolo, un programma di agenda e appuntamenti ed uno per la gestione di una base di dati. Ciò consente di eliminare il lettore dei floppy, il lettore di CD-ROM e parte del disco rigido, alleggerendolo in peso ed in costi, ma vincola per sempre a non cambiare programma ed a non poter fare aggiornamenti. Il lato positivo dell’avere i programmi permanenti in ROM è di poterli richiamare in una frazione di secondo e nel poter saltare dall’uno all’altro con un semplice tasto. In alcuni notebook è possibile spengere il computer avendo sullo schermo un lavoro e, nel riaccenderlo, trovare lo stesso lavoro allo stesso punto in cui l’avevamo lasciato. Inoltre, eseguire un programma prelevandolo dalla memoria ROM comporta per il computer un dispendio di energia molto inferiore di quello che sopporterebbe se dovesse eseguirlo da un disco rigido. 44 La scheda video Perché sia possibile la visualizzazione dei segnali del computer sullo schermo del monitor, questi devono essere elaborati e trasformati in segnali video. Tutto ciò che appare sul monitor viene inviato dal computer ad una scheda di interfaccia inserita in un connettore oppure, nel caso dei computer portatili o dei computer desktop più semplici, integrata sulla scheda madre. Le caratteristiche tecniche più importanti delle schede video sono: la memoria RAM presente sulla scheda, il RAMDAC e il processore grafico (GPU) utilizzato per l’elaborazione. Il Processore Grafico (GPU) Questo chip è il cervello della scheda video e controlla la generazione di immagini 2D/3D. I processori grafici sostanzialmente devono “interpretare” i bit che vengono elaborati della CPU per trasformarli in un segnale che possa essere inviato al monitor in maniera che diventi comprensibile per l’utente. Le schede grafiche non accelerate avevano solo questa funzione di “traduzione”, ma con l’avvento di Windows il sistema operativo cominciò a gravare molto di più sulla CPU per migliorare la visualizzazione delle schermate e degli elementi grafici, come pure i giochi realizzati si lanciavano sempre di più sulla “Realtà Virtuale” Nacque così il BUS VESA e le schede con acceleratore grafico. Gli Acceleratori grafici non erano altro che schede con una GPU talmente potente da elaborare per conto suo i dati necessari per la creazione dell’ambiente grafico del sistema operativo (accelerazione 2D) e per la creazione di immagini vettoriali in 3D (acceleratori 3D). Per un certo periodo di tempo vennero venduti anche acceleratori 3D “stand Alone”, che permettevano di migliorare l’elaborazione 3D prendendo il controllo dell’uscita Video VGA, ma vennero presto sopraffatti da schede con GPU che potevano fare di tutto. Ai giorni d’oggi ci sono 4 case produttrici di GPU: nVidia, Matrox, S3 e ATI. Tutte le schede video in circolazione montano un chip prodotto da una di queste quattro case, anche se Matrox non commercializza a terzi le sue GPU molto potenti e portate per applicazioni professionali. LA Video RAM La prima parte della scheda è costituita da una serie di chip di memoria RAM, nei quali vengono caricati i dati che devono essere visualizzati sullo schermo. Questa memoria, chiamata video RAM, ha una capacità che varia da 16Mb ad 128Mb. La video RAM costituisce una specie di mappa geografica dello schermo. La visualizzazione sul monitor avviene tramite l'accensione di punti luminosi sulla superficie interna dello schermo: ogni parte della memoria rappresenta un punto sul video. Quanta memoria sia necessaria come video RAM è determinabile solo in funzione di due fattori: il numero dei colori usati e la risoluzione dello schermo. I primi video avevano la capacità di visualizzare immagini solamente in un colore. Con l'avvento dei monitor a colori si sono resi disponibili prima 8, poi 16, poi 256, quindi 65'536 ed infine oltre 16 milioni di tonalità. Per risoluzione si intende l'accuratezza e la nitidezza delle immagini visualizzate. Se queste sono formate da punti luminosi, più questi sono piccoli e vicini l'uno all'altro, più l'immagine appare nitida. Maggiore è la quantità di punti, migliore è la risoluzione. L'unità di misura della risoluzione è il punto, chiamato anche, dai professionisti della grafica, pixel. Una risoluzione di 748 per 350 punti vuol dire che lo schermo è formato da un reticolo di 748 punti di base e 350 punti in altezza: l'immagine che appare è composta da 261'800 punti. Con speciali schede è possibile avere una risoluzione di 2'048 per 2'048 punti, nel qual caso l'immagine sullo schermo è composta da 4'194'304 punti. I dati presenti nella video RAM vengono trasferiti al monitor, a seconda delle necessità di visualizzazione, in modo che le immagini che essi rappresentano appaiano sullo schermo. Il modo nel quale questi dati vengono interpretati per potere essere impressi sullo schermo, viene determinato dall'adattatore grafico presente sulla scheda, che funziona da interfaccia fra la video RAM ed il monitor. I dati contenuti nella memoria video vengono tradotti dall'adattatore in una serie di istruzioni comprensibili dal monitor. Adattatore e monitor devono "parlare" nello stesso linguaggio di istruzioni. Questo linguaggio 45 viene chiamato standard grafico. Lo standard grafico non è unico, ma varia a seconda delle caratteristiche di visualizzazione che richiediamo al nostro computer. Migliore è la risoluzione e migliore è la qualità dell'immagine che vediamo sullo schermo. Ciò ha una notevole importanza sotto due aspetti: - l'affaticamento della vista; - le necessità di visualizzazione. Se si deve lavorare molto davanti ad uno schermo e questo presenta immagini confuse e sfocate, ben presto avremo dolore agli occhi e lacrimazione, e con il tempo un calo nell'acutezza visiva. Poiché non esistono grosse differenze di prezzo, è ormai consigliabile utilizzare computer che adottano lo standard VGA. Se la visualizzazione dei colori non ha importanza, potremo anche abbinare uno schermo monocromatico che, comunque, sfrutta l'alta risoluzione della scheda. L'uso di schede e monitor SVGA/UVGA non è ancora giustificato. Non essendo uno standard molto diffuso, i prezzi sono ancora sostenuti, mentre la sua alta risoluzione è eccessiva per l'utente normale: chi usa il computer per scrivere od elaborare dati non percepisce la differenza fra una risoluzione di 720 per 480 punti ed una di 1'024 per 768 punti su un normale monitor da 14 pollici. Il RAMDAC Il RAMDAC è uno dei chip più importanti presenti sulla scheda Video e anche uno dei meno noti. La sigla che lo contraddistingue significa RAM Digital-to Analog Converter, ed è il chip preposto a controllare il flusso di dati in uscita sulla porta VGA, che è una porta analogica. In pratica il RAMDAC converte i segnali digitali prodotti dalla GPU e contenuti nella Video RAM in impulsi elettrici analogici necessari per pilotare il cannone del tubo catodico. Maggiore è la frequenza del RAMDAC, più alta sarà la risoluzione supportata dalla scheda e più alta la frequenza di refresh impostabile, monitor permettendo. 46 La scheda Audio Per lungo tempo i personal computer sono stati semplicemente guardati e non ascoltati. Nonostante le funzionalità audio integrate nei computer Macintosh suscitassero un notevole interesse, la maggior parte dei primi PC compatibili IBM disponeva di una scarsa propensione verso l'audio, tranne qualche bip proveniente dall'altoparlante integrato e la sgradevole ripetizione di fughe di Bach eccessivamente semplificate. Molta acqua è passata sotto i ponti. Una piccola società chiamata Creative Labs ha dato la voce ai PC grazie alla propria scheda Sound Blaster. Da allora, le successive generazioni di Sound Blaster e schede concorrenti hanno permesso di portare su PC una serie di funzionalità che vanno dalla registrazione di audio digitale alla modifica e alla riproduzione. In questo processo il vecchio telaio del PC si è trasformato in un mezzo cretivo e in un sistema di intrattenimento alla portata di tutti. Negli ultimi anni, in molte applicazioni su PC le funzioni audio hanno assunto la stessa importanza della grafica. Più recentemente, l'audio tridimensionale, una caratteristica presente nelle schede più recenti, si è largamente diffuso sia nei film sia nei giochi. Oggigiorno, qualsiasi PC multimediale è in grado di gestire riproduzioni e registrazioni di audio digitale a livello di CD e di riprodurre brani musicali da file. Se si esamina l'interno della maggior parte dei PC multimediali commercializzati prima del 1997, si noterà una scheda audio ISA all'interno del telaio. Nella maggior parte dei casi, la scheda è una Sound Blaster. I sistemi più recenti non sempre dispongono di una scheda separata in quando un piccolo chip sulla scheda di sistema offre la stessa funzionalità, cioè la conversione di file digitali in impulsi elettrici analogici che l'altoparlante trasforma in suoni. Tuttavia, le schede audio non hanno introdotto nei PC la possibilità di gestire audio digitale. Dopo tutto, il primo PC IBM poteva riprodurre toni musicali con il suo grezzo altoparlante inviando impulsi elettrici corrispondenti per frequenza e ampiezza al suono desiderato. Le schede audio hanno introdotto i primi strumenti necessari per l'evoluzione verso la gestione di sofisticate transazioni audio. I convertitori da digitale ad analogico trasformano i segnali digitali in onde analogiche per gli altoparlanti. Al contrario, i convertitori da anologico a digitale (ADC) accettano in input i suoni provenienti da un microfono o da una linea e li convertono in sequenze di 0 e 1 per poterli memorizzare su disco rigido. La maggior parte delle schede audio è costituita dai seguenti componenti: un convertitore da digitale ad analogico un convertitore da analogico a digitale un chip per l'elaborazione audio o di segnali digitali (Digital Signal Processing, DSP) un chip di amplificazione, per l'invio dei segnali ad altoparlanti non alimentati. Poche schede comprendono un amplificatore, poiché quasi tutti gli altoparlanti per PC sono in grado di amplificare i segnali in ingresso porte di input analogico per microfono, segnali di linea , CD audio e periferiche MIDI porte per l'output analogico per altoparlanti, segnali di linea e joystick. Esistono tuttavia due tipi di files musicali, che vengono interpretati in maniera differente dalle schede audio. I files più comuni sono delle onde audio campionate, e vengono elaborate tramite il DSP in coppia con i convertitori analogico-digitali. Il secondo tipo di files sono i Files MIDI (Musical Instrument Digital Interface), nati su stazioni di lavoro di strumentisti e poi portati anche sui PC. Questi files permettono di specificare la musica come se fosse una partitura (indicando lo strumento, altezza e durata della nota suonata, posizione dello strumento rispetto all’ascoltatore). La qualità della riproduzione viene definita dai campioni di onda degli strumenti memorizzati nella scheda audio o nell’apparecchiatura digitale. I file MIDI sono scambiabili con moltissime apparecchiature, così è possibile per gli appassionati creare la propria partitura MIDI sul PC di casa con una scheda schifosa e poi portarlo in uno studio di registrazione professionale e far suonare la partitura MIDI come se fosse eseguita da un’orchestra sinfonica. 47 Le unità di memoria di massa Durante l’esecuzione di un programma, il programma stesso e tutti i documenti elaborati risiedono nella memoria RAM. Ma la memoria RAM è temporanea: al cessare dell’alimentazione elettrica non è in grado di conservare la magnetizzazione. Per poter conservare i programmi ed i documenti è necessario ricorre ad un tipo di registrazione magnetica permanente ed in grado di incamerare una grossa quantità di dati. Le unità di memoria di massa assolvono a questo scopo. Più o meno capaci, più o meno veloci, più o meno pratiche, hanno tutte la caratteristica di immagazzinare una quantità di dati, a volte enorme, per un tempo indefinito, e di consentirne in qualsiasi momento la rilettura da parte del computer con il successivo caricamento nella memoria RAM. Gli stessi programmi non potrebbero essere commercializzati senza la possibilità di venderli materialmente registrati su un dischetto. Esistono unità di memoria di massa di ogni dimensione, capacità e per ogni scopo. Dal disco sul quale sono registrati i giochi che si acquistiamo in edicola, al dischetto che utilizziamo per trasferire il lavoro dal computer in ufficio a quello a casa, ai grossi dischi rigidi che servono da archivio per le reti, ai leggeri dischi ottici o magneto ottici capaci di conservare intere enciclopedie in pochi grammi. La conservazione dei dati è possibile grazie alla loro struttura binaria. Le serie di zero e di uno che compongono i bit, che a loro volta compongono i byte, trasformati in impulsi elettrici nel loro viaggio all’interno del computer e dei suoi componenti, vengono conservato in forma binaria. Disponendo di una superficie formata da una sostanza facilmente magnetizzabile, un ossido metallico, è sufficiente creare un microscopico campo magnetico che alteri la polarizzazione delle particelle. Andando a rileggere la polarizzazione, è possibile ricavarne gli stessi impulsi elettrici che li hanno originati. Un impulso elettrico positivo ha polarizzato in senso positivo una zona di ossido metallico. Questa zona darà origine, tutte le volte che viene letta, ad un impulso elettrico positivo. Caratteristiche tecniche Le tecnologie principali di registrazione sono: - magnetica; - ottica; - magneto ottica. All'interno di questi tipi troviamo diverse categorie di unità di memoria di massa: - dischi flessibili rimovibili; - dischi rigidi fissi interni od esterni; - dischi rigidi rimovibili; - cartucce a nastro; - Compact Disc; - dischi ottici scrivibili. 48 Dischi rigidi Il principio di funzionamento è identico a quello dei floppy disk e la tecnologia è magnetica. Il disco rigido comprende in un unico dispositivo sia il supporto di registrazione magnetica che la parte meccanica di motore e testine. Nella maggior parte dei computer è presente un disco rigido nella configurazione di base, nel qual caso è compreso nella stessa unità centrale e viene chiamo disco interno. Se il computer ne è sprovvisto, o se ne occorre un altro per necessità di archiviazione, si tratta di una apparecchiatura autonoma, chiamata disco esterno. Il supporto di registrazione è formato da un disco di acciaio sul quale è presente la sostanza di ossido metallico. Il disco di acciaio può essere singolo o multiplo, rendendo così maggiore la capacità di archiviazione del drive. La capacità di un disco rigido è nettamente superiore a quella di un dischetto su supporto flessibile. I primi dischi rigidi avevano una capacità di 2Mb o di 5Mb. Con il diffondersi dei personal e con il progresso tecnologico, i dischi rigidi sono saliti a 10Mb, 20Mb, 40Mb, 80Mb, 180Mb e così via. Oggi è comune trovare dischi di 100 Gb soprattutto per applicazioni grafiche o come unità di memoria di massa per server di rete. Un tipo di dischi rigidi, rispondenti allo standard SCSI, possono essere collegati ad uno stesso computer utilizzano una sola scheda di interfaccia. Il primo disco è connesso al computer, mentre i successivi sono collegati l'uno all'altro a catena, fino ad sette o quindici unità. I controller IDE e SCSI I controller lavorano come agente del traffico, gestendo l'interfaccia fra le periferiche (disco fisso, lettore CD-ROM, e altre componenti) e il sistema PC vero e proprio. Quando la CPU richiede dati a un disco, per esempio, è il controller del disco a gestire la trasmissione della richiesta al drive, e a restituire tramite il bus del PC le informazioni ivi reperite. Come è accaduto per tutte le tecnologie dei computer, i controller hanno subito notevoli miglioramenti nel corso degli ultimi anni. I controller originali dei PC erano schede hardware inserite in un connettore a pettine (slot) della scheda madre e collegate alle unità a disco tramite piattina a più conduttori. Col tempo i costruttori delle unità a disco hanno spostato i circuiti elettronici sui drive, permettendo a questi di svolgere autonomamente una maggior parte della gestione dei dati, e riducendo i controller a semplici meccanismi (un vigile dal lavoro non troppo impegnativo). I controller attuali non richiedono più alcuna scheda per i loro circuiti elettronici. I produttori hanno cominciato, infatti, a integrare questi semplici controller direttamente sulla scheda madre, e su quasi tutte le schede madri dei nuovi PC sono presenti ora i relativi connettori collegati alle unità a disco. In qualità di canale di comunicazione primario fra la scheda madre del PC e le unità a disco, il controller svolge un ruolo critico sulle prestazioni generali del sistema. Con l'aumento progressivo delle dimensioni dei programmi e dei file dati, diventa essenziale realizzare trasferimenti rapidi e affidabili fra sistema e drive. Fisicamente, un controller consiste di uno o più circuiti integrati di controllo, altri componenti elettronici di supporto e un connettore per collegarsi ai drive e alle periferiche. Il controller vero e proprio fornisce l'intelligenza necessaria per comunicare con i vari drive e per gestire le transazioni senza disturbare continuamente la CPU per ottenere risorse e permessi. I circuiti logici di supporto svolgono funzioni quali fornire un deposito per i bit, che possono così venire elaborati senza il rischio di perdite di dati. I controller intelligenti possono svolgere le transazioni più velocemente e con minori interferenze con le altre attività del sistema. Una volta iniziata una transazione, possono operare senza più bisogno di interventi della CPU. I dati possono così fluire liberamente dal disco fisso alla memoria principale del sistema, mentre la CPU resta libera e può gestire, per esempio, il ricalcolo di un foglio elettronico. 49 SCSI è la sigla di Small Computer System Interface. Man mano che passavano gli anni i controller SCSI si sono evoluti. Una seconda versione di SCSI è stata chiamata Fast SCSI o SCSI-2. Questa nuova versione offre il supporto a varie periferiche, oltre ai dischi fissi, e aumenta il potenziale di trasferimento dati. Recentemente è uscita una nuova versione detta Ultra SCSI (SCSI-3), che incrementa ancora di più la velocità di trasferimento dati. La SCSI ha avuto il suo principio nel mondo dei Minicomputer, ma è stata poi portata su Macintosh Apple dove è prosperata. Gli adattatori SCSI permettono di concatenare assieme sette diversi tipi di periferiche (dischi fissi, scanner, stampanti e cosi via), tutti controllati da una scheda adattatrice. Un adattatore SCSI-2, per esempio, fornisce 8 diversi indirizzi per le periferiche, uno dei quali viene usato dallo stesso adattatore. Ne consegue che sette periferiche distinte possono usare lo stesso controller. La flessibilità della SCSI va anche oltre. Dei bridge controller sofisticati possono collegare sette periferiche per ciascun indirizzo di periferica SCSI. Ciò significa che a un singolo adattatore SCSI si possono collegare fino a 49 periferiche. Si provi a paragonare questo numero col massimo di 4 periferiche ammesse dall'IDE. Gli elementi a sfavore che hanno condizionato molto la sua diffusione sono dovuti ai costi e alla difficoltà d'uso. IDE sta per Integrated Drive Electronics e originalmente è derivata dai dischi fissi del PC IBM AT, il primo personal computer a 16 bit. Il vero nome dello standard è ATA (ATAttachment). Il significato della sigla IDE è molto appropriato. Queste unità infatti collocano la maggior parte dell'elettronica del controller sul supporto del disco e non su una scheda separata. Ne risulta un modello che riduce i costi di fabbricazione, e ha contribuito a farne uno standard affermato nei PC. Anche lo standard IDE ha avuto vari miglioramenti col tempo. La versione più recente e più diffusa viene detta EIDE (Enhanced Integrated Drive Electronics).L'EIDE permette di avere un controller primario e uno secondario, a cui di possono collegare fino a 4 periferiche. La formidabile diffusione che questo tipo di controller ha avuto è dovuto al fatto che l'IDE era in linea con le specifiche BIOS che erano allora presenti nella maggior parte dei sistemi. In pratica, la maggioranza dei sistemi sono dotati di controller IDE integrati sulla scheda madre, che non richiedono nessuna installazione. I due canali sono equivalenti tra di loro, mentre i due drives collegati su ciascun canale, rispettivamente chiamati Master e Slave, hanno una priorità di utilizzo del canale (Prima i Master poi gli Slave). Inoltre i controller IDE risultano molto mero cari dei controller SCSI. Possiamo individuare gli svantaggi, oltre che nel limitato numero di periferiche supportate, anche nella velocità di trasferimento dei dati che nonostante tutti i vari miglioramenti, rimane al di sotto dello standard SCSI. L’estensione ATAPI (ATA Packet Interface) ha permesso di controllare oltre a dischi fissi anche Cd-Rom, masterizzatori, lettori DVD e unità a dischi estraibili. Standard ATA Velocità di trasferimento dati PIO Mode 0 3,33 MB/s PIO Mode 1 5,22 Mb/s PIO Mode 2 6,66 Mb/s PIO Mode 3 11,11 Mb/s PIO Mode 4 16,66 Mb/s UDMA2 33,3 Mb/s Controller avanzati UltraATA UDMA4 (FastATA, UDMA66) 66,6 Mb/s UDMA5 (FastATA, UDMA100) 100 Mb/s Tipiche velocità di trasferimento dati nel Bus ATA/IDE A livello fisico i cavi ATA/IDE sono composti da 40 contatti e 40 fili, sono a forma di nastro piatto e contengono tre connettori, due per i dischi e uno per il controller. I cavi utilizzati nei sistemi UltraATA invece hanno 80 fili, di cui 40 di massa per stabilizzare il segnale, e connettori colorati perché le specifiche prevedono posizioni standard sul cavo per Master, Slave e Controller. 50 I dischi fissi Un altro importante componente del PC è l'hard disk (disco fisso). All'interno di ogni sistema troveremo sempre almeno un hard disk che ha il compito di mettere a disposizione sia alla memoria di sistema che alla CPU le informazioni, sia in lettura che in scrittura. Ad esempio quando si lancia un'applicazione per l'elaborazione testi, il programma eseguibile viene letto dal disco fisso e caricato nella RAM. Poi, quando si apre un documento salvato in precedenza, anche questo file viene letto dal disco e caricato nella RAM. Tutte le modifiche che vengono apportare a quel documento vengono poi riscritte sul disco fisso quando si salva il file. Linux e altri sistemi operativi fanno fare inoltre al disco fisso anche gli straordinari, impegnandolo come serbatoio nel caso di superamento della capacità di memoria RAM di sistema. Quando viene caricato un numero eccessivo di applicazioni e di file, quelli usati meno di recente vengono nuovamente riscritti sul disco. Ai programmi si fa intendere che i vari bit stiano ancora sulla RAM, ma quando i dati vengono richiamati il sistema operativo ricava in realtà le informazioni dal disco fisso. Questo modo di operare, chiamato memoria virtuale, amplia le funzionalità di tutti i PC, ma esige un caro prezzo in termini di prestazioni: infatti nei trasferimenti di dati i dischi fissi sono 100 volte meno veloci della RAM. Dal punto di vista fisico, l'hard disk opera in modo simile a un vecchi giradischi: una serie di dischi di materiali ceramici o di alluminio svolge il ruolo dei vecchi dischi in vinile su cui era registrata la musica. Ogni disco, o piatto, è ricoperto con una fine pellicola magnetica detta thin film (strato sottile), su cui vengono scritti e letti i dati. Un motore, detto spindle, fa ruotare i dischi a velocità che vanno da 5.400 a 10.000 giri al minuto. Una testina di lettura/scrittura, che corrisponde alla puntina del giradischi, letteralmente "galleggia" sopra ciascun disco a una distanza di qualche micron, leggendo o registrando minute cariche magnetiche che vengono interpretate come 1 o 0. Per la registrazione dei dati, ciascun disco è suddiviso in migliaia di piste circolari concentriche, a loro volta suddivise in settori. Il settore è l'unità elementare più piccola della struttura del disco, e i bit registrati sono indirizzabili in base alla loro posizione nel settore. Si ricordi che qui ci sono più dischi impilati sullo stesso asse, ognuno suddiviso in sottili anelli concentrici detti tracce o piste. Le tracce che risultano sovrapposte sui vari dischi nel loro insieme costituiscono un cilindro. La cosa è importante perché, quando l'attuatore delle testine sposta una testina di lettura/scrittura su una particolare pista di un disco, anche tutte le altre vengono spostate sulla medesima traccia dei dischi corrispondenti. Quando una testina si sposta su una particolare traccia in un disco, tutte le piste del medesimo cilindro sono pure accessibili allo stesso tempo. Ultimamente siano andati incontro a molti problemi per quanto riguarda la gestione dei dischi. Il primo metodo di indicizzazione dei dischi permetteva di riconoscere l’area in cui un dato era memorizzato indicando le tre coordinate CHS (Cylinder, Head, Sector) corrispondenti, dove i Cilindri erano delle zone concentriche del disco (come le tracce dei 33 giri), le testine indicavano quale piatto conteneva i dati cercati e i settori erano delle zone di 512 bytes in cui erano suddivisi i Cilindri. Questa architettura, però, aveva un limite. Quello dei 504Mb (Binari, 528 Mb decimali) derivati dai limiti del BIOS (Massimo 16 testine), dello standard ATA/IDE (63 Settori per traccia) e di DOS (1024 cilindri per traccia). Per superare questo primo limite, uscirono delle nuove versioni del BIOS che supportavano una “traduzione” dei parametri, estendendo il limite delle testine e traducendo un numero maggiore di cilindri necessari come se fossero Testine aggiuntive (2000 Cilindri e 16 testine diventavano 1000 cilindri e 32 testine, in modo che il DOS non perdesse i 976 cilindri al di la dei 1024 supportati). Questo modo è chiamato LBA (Logical Block Addressing) ed è utilizzato solo con sistemi Windows, poiché File Systems di altri produttori non soffrono di questo limite. Altri limiti successivi alla dimensione dei dischi sono solo legati alla gestione dei dati da parte del Sistema operativo, non dagli standard Hardware. 51 Compact Disc Con la stessa tecnologia ottica utilizzata per i Compact Disc musicali, è possibile incidere un dischetto contenente un archivio di dati. Un CD permette solo la lettura e mai la registrazione. La sua fabbricazione prevede, infatti, non una registrazione diretta sul dischetto, ma la pressofusione in plastica di ciascun esemplare a partire da un originale. Per questa limitazione, i Compact Disc vengono anche chiamati CD-ROM, assimilandoli alla memoria ROM, di sola lettura. La superficie del dischetto è composta da minuscole scanalature che rappresentano i singoli bit. Un raggio laser, all'interno del disk drive, colpisce la singola scanalature e il disk drive è in grado di tramutare la rifrazione del raggio in segnali elettrici da inviare al computer. Esistono disk drive per CD-ROM singoli o multipli. In questo caso si possono inserire nel lettore più Compact Disc, che possono essere alternati in lettura senza la necessità di effettuare lo scambio materialmente. I lettori di CD-ROM (Compact-Disc Read-Only Memory) hanno notevolmente contribuito al boom multimediale dei personal computer. I dischi compatti possono memorizzare ben 650 MB di dati su un singolo disco, facilmente trasportabile, permettendo agli sviluppatori di software e di prodotti multimediali di includere grandi file audio e video nelle loro applicazioni e videogame. Gli utenti hanno subito gradito molto questi dischi economici, durevoli (rispetto ai dischetti) e di grande capacità. I CDROM, di conseguenza, sono diventati il supporto di memoria di massa rimovibile più diffuso mai conosciuto fino a oggi dai PC. Oggi praticamente quasi tutti i PC vengono forniti completi di lettore di CD-ROM. Con tale diffusione dei drive per CD-ROM tutti, dai produttori di applicazioni ai creatori videogame, hanno scelto i CD-ROM come mezzo di supporto preferenziale. La tecnologia dei CD-ROM progredisce rapidamente e le velocità dei drive aumentano di un fattore 5 o 6 volte ogni due tre anni. Diversamente dai supporti che registrano su strati magnetici, come i dischetti e i dischi fissi, i CD-ROM usano una tecnica laser per leggere (e scrivere, nel caso dei CD-R, dove la R sta per Recodable ovvero scrivibile) dati in forma digitale. Un laser (di solito giallo) scandisce la superfice del disco in rotazione, e la luce riflessa dal disco viene interpretata come bit. Un "pit" (incavo) profondo solo pochi micron viene interpretato come 1 binario, e l'assenza di pit come 0. La riflessione della luce laser cambia passando da una zona senza pit (detta land) a un pit, o da un pit a un land. Il cambiamento più spettacolare nella tecnologia CD-ROM (a parte quella dei supporti di memoria scrivibili e relativi drive) riguarda la velocità. I primi drive avevano una velocità di trasferimento dati di 150 KB/s, che venne in seguito chiamata velocità 1X. I costruttori seguitarono a perfezionare sempre più la meccanica dei drive, da allora è diventata conseuetudine indicare la velocità di un drive come multiplo di quella velocità originaria. Così un drive 2X trasferisce i dati a 300 KB/s, un drive 4X a 600 KB/s, e così via. Solo pochi anni fa un drive 10X poteva costare anche 1.000.000 di lire. Col tempo, con un numero sempre crescente di prodotti che entravano in questo enorme mercato, i prezzi hanno subito cali spettacolari: oggi si acquista un drive IDE 32X per 130.000 lire circa e sono già comparsi a prezzi poco maggiori i 40X. Ma l'innovazione va ben oltre i semplici aumenti della velocità di rotazione. Una tecnologia, sviluppata dalla Zen Research e usata in un nuovo lettore CDROM della Kenwood, oggi suddivide il raggio laser in sette raggi, tramite un gruppo di prismi e di specchi. Il drive CLV ruota solo alla velocità 10X, ma grazie ai raggi plurimi, capaci di leggere contemporaneamente fino a 7 tracce adiacenti, le prestazioni sono superlative. Proprio come i drive a dischi fissi, i lettori di CD-ROM possono avere controller di tipo SCSI o IDE. Diversamente dai dischi fissi, però i mediocri tempi di accesso dei drive CD-ROM (di solito 150 ms, contro i tipici 9 ms dei dischi fissi) non mettono a dura prova le funzioni di trasferimento dati di entrambi questi standard. Sia il controller SCSI sia l'IDE possono gestire facilmente le velocità inferiori ai dischi fissi anche del drive CD-ROM attualmente più veloce, per cui in questi casi la scelta fra SCSI e IDE non inluisce sulle prestazioni. 52 Supporti di memoria a registrazione ottica I registratori ottici o masterizzatori permettono agli utenti di PC di registrare (il termine inglese del gergo è "master", da cui masterizzatori) da sè dischi ottici, quali i CD-ROM e DVD, senza dover inviare i propri dati a uno degli speciali servizi che elaborano i dati. Benché non siano fra i più facili da usare, i masterizzatori consentono di memorizzare ingenti quantità di dati in modo economico e rapido su dischi che poi possono venire distribuiti ad altri utenti. Questo è un settore che sta assumendo un'importanza sempre crescente. La base installata molto ampia di unità CD-ROM, per esempio, rende i CD scrivibili e riscrivibili uno strumento assai potente per archiviare e distribuire grandi quantità di dati che possono essere riprodotti su altri PC. L'avvento dei DVD promette di rendere altrettanto importanti drive analogici con supporti ad alta densità. I registratori ottici possono essere utilizzati per un numero sempre maggiore di applicazioni, da quelle per uso domestico all'editoria e alla gestione dei dati. Tutti questi drive utilizzano raggi laser per leggere le variazioni nella superfice del disco, che il controller integrato interpreta come 1 o 0 digitali. Da questo punto di vista, funzionano esattamente come i normali lettori di CD-ROM e DVD. Ma queste periferiche permettono anche di inviare un raggio laser più potente su supporti speciali, e così di scrivere dati sui dischi. In tutti i casi queste unità sono in grado di leggere i formati di dischi precedenti. Così un drive DVD-RAM può leggere CD-ROM, CD-R, CD-RW e DVD ROM. Un drive CD-RW, attualmente, può leggere CD-ROM e leggere e scrivere CD-R e CD-RW. Nessun formato di CD può però leggere i dischi DVD, e i drive DVD-RAM non possono scrivere su CD-R o CD-RW. I CD-R: Il primo supporto a larga diffusione registrabile con raggio laser, che oggi si è conquistata la maggior fetta di mercato. I drive CD-R si possono trovare sotto nomi assai diversi ma tutti hanno un'unica caratteristica: su qualsiasi parte del supporto si può registrare (scrivere) una sola volta. Sebbene poi i dati possano venire letti dal disco quante volte si vuole, fino a quando dura il disco, non sarà più possibile registrare sopra una traccia che è stata "incisa" da un masterizzatore CD-R. Il maggior vantaggio dei CD-R e relativi drive è che tale supporto può essere letto praticamente da qualsiasi unità CD-ROM: un punto molto importante, data l'estrema diffusione raggiunta dai lettori di CD-ROM sui PC moderni. La base installata di unità CD-ROM rende i CD-R particolarmente utili per distribuire dati ad altri. Il funzionamento dei CD-R emula il processo usato per creare CD-ROM professionali con l'impiego di prodotti chimici. Su un disco CD-ROM realizzato in uno studio professionale, i dati vengono registrati sul supporto usando un laser per creare incavi (pit) e rilievi (rise o land) lungo una traccia concentrica a spirale. Nella riproduzione, pit e land riflettono in modo diverso il raggio laser di lettura del drive CD-ROM: un microprocessore integrato capta le variazioni di segnale e le converte in bit, che possono essere inviati al PC e interpretati come dati. La registrazione dei CD-R differisce un po' da questa, perché l'apparecchio non è in grado di bruciare agevolmente pit sul supporto. I drive CD-R utilizzano invece un supporto speciale, che permette un'interazione chimica che crea poi l'illusione di pit e land bruciati sulla superficie. Sopra un substrato di policarbonato che reca prestampate le piste incise (usate per allineare i pit corrispondenti ai dati) viene posto uno strato che contiene un colorante reattivo, fotosensibile, e uno strato riflettente. Il processo ha luogo nello strato fotosensibile del colorante, che reagisce quando è esposto alla specifica lunghezza d'onda del laser della testina di scrittura. Quando il raggio laser riscalda un punto sul disco, esso diventa meno riflettente rispetto alle aree vicine non toccate dal raggio, e produce così il medesimo effetto di un pit bruciato su un normale CD-ROM. Dato che la composizione del colorante viene alterata dal laser, su ciascun punto del disco CD-R si può scrivere in questo modo una sola volta. Nel corso dell'ultimo anno i drive CD-RW (CD-ReWritable) sono diventati una opzione di masterizzazione importante. Queste unità utilizzano una combinazione della tecnica di scrittura a pacchetti variabili e un supporto del disco a cambiamento di fase (sviluppato a suo tempo da Panasonic-Matsushita) che permette sia di scrivere sia di riscrivere sui CDRW. I drive CD-RW possono masterizzare anche gli economici CD-R, e costituiscono quindi un'opzione estremamente versatile per chi vuole distribuire dati multimediali, scambiare file e creare backup. I drive CD-RW coprono l'intervallo fra dischi CD-R (non riscrivibili) e i DVDRAM (che possono essere letti solo da una piccola parte di drive ottici). Il supporto a cambiamento di fase, d'altro canto, si differenzia sostanzialmente dall'approccio dei normali CD-ROM. Qui un sottile supporto a struttura cristallina viene sottoposto a un impulso laser per scrivere i bit. L'energia altera la struttura cristallina del supporto, e fa sì che la sostanza da assorbente della luce diventi riflettente. Un drive può determinare il valore del bit in base 53 al fatto che il raggio laser ritorni riflesso al detector o venga assorbito dal supporto. Ogni porzione del supporto può subire questa alternanza di stati fino a 1000 volte nel corso della vita di un disco. Purtroppo, la CD-RW obbliga ad accettare un certo numero di compromessi, che possono rendere meno facile raccomandarne l'uso. Innanzitutto, tali dischi non vengono letti dalle unità CD-ROM e CD-R meno recenti: è necessario usare un drive recente, che si conformi allo standard MultiRead per poter leggere i CD-RW. La compatibilità coi CD-R, invece, e già assicurata dai lettori di CD-ROM venduti negli ultimi anni. I masterizzatori CDRW sono inoltre ovviamente più cari dei loro cugini CD-R. Le velocità di lettura raggiungono i 24X (sui modelli recenti), ma la masterizzazione di CD-R avviene a velocità 4X. Inoltre, mentre i CD-ROM possono contenere fino a 650 MB di dati, i CD-RW arrivano solo a 480MB, perchè le tabelle di assegnazione dei file richieste per consentire più scritture consumano da sole più di 100 MB di spazio su ciascun CD-RW. Ma forse il maggior problema dei CD-RW è che molti lettori di CD-ROM e CD-R non sono in grado di leggere questi dischi. I drive meno recenti non sono capaci di distinguere le minute variazioni di riflessione nei materiali a cambiamento di fase dei CD-RW. Per questo motivo il CD-RW risulta adatto più per il backup dei dati che per distribuire file su larga scala. Non sorprende che il prezzo dei drive CD-RW sia maggiore di quello dei CD-R. Anche i dischi CD-RW costano di più, circa 4.000 lire per disco, mentre il prezzo dei CD-R e di circa 1.500 lire. Masterizzatori CD-R La diffusione e la praticità dei CD-ROM ha avuto un notevole incremento con la nascita e la diffusione dei masterizzatori da scrivania per registrare dati su CD-ROM scrivibili. Produrre CD-ROM era un procedimento macchinoso, lungo e costoso. Bisognava mettere a punto, registrandolo su un normale disco rigido, un prototipo del contenuto del CD-ROM, verificando e correggendo al massimo il software ed i dati, in quanto poi sarebbe stato impossibile correggere i CD-ROM prodotti. Questo originale doveva essere affidato ad una società specializzata, la quale provvedeva, con costosi dispositivi, a produrre una singola copia del CD-ROM, chiamata master. Una volta riesaminato il master, ed eventualmente producendone un altro definitivo, questo veniva utilizzato per lo stampaggio dei CD-ROM da commercializzare. La verifica del master doveva essere accuratissima, in quanto un errore presente sul master portava alla tragica situazione nella quale tutti i CD-ROM prodotti dovevano essere buttati via per stamparne altrettanti con il software corretto. Gli impianti per lo stampaggio dei CD-ROM sono identici a quelli per i CD musicali, quindi erano le stesse aziende che ne effettuavano la produzione. Un numero basso di copie portava ad un altissimo costo per la singola copia di CD-ROM, tanto più che si doveva ammortizzare anche il costo di masterizzazione. Tirature inferiori alle 1.000 copie avevano costi proibitivi. La diffusione dei lettori di CD-ROM ed il loro abbassamento di prezzo hanno ampiato la base degli acquirenti, e questo ha reso più economico stamparli. Effettuare poche diecine di copie, tuttavia, era ancora anti-economico. I masterizzatori da scrivania hanno risolto il problema, rendendo possibile ed economico produrre non solo poche copie di un CD-ROM, ma addirittura uno solo. Sono nati i CD-R, cioè CD-ROM scrivibili, che possono immagazzinare fino a 650 Mb di dati o software. I CD-R sono diversi dai CD-ROM. Mentre questi ultimi sono stampati meccanicamente ed immodificabili, i CD-R possono essere sia letti (anche dai normali lettori per CD-ROM) che scritti. La sua superficie è ricoperta da un materiale policristallino che, scaldato ad alta temperatura dal raggio laser, passa dallo stato riflettente a quello amorfo, non riflettente. Il problema è che l’operazione di scrittura su un CD-R può avvenire una sola volta. Il problema era più complesso con i primi masterizzatori, che utilizzavano la tecnologia Disk at Once. Cioè una volta registrato qualcosa su un disco, non si poteva più aggiungere nulla. Poiché la quantità di dati che si possono immagazzinare su un CD-R è notevole, occorreva parecchio tempo prima che si riuscisse a mettere insieme 650 Mb di dati da archiviare. D’altra parte era poco economico utilizzare un CD-R per registrarvi solamente 20 o 40 Mb. La seconda generazione di masterizzatori utilizza la tecnologia multisessione Track at Once. Cioè si può registrare sul CD-R anche in più sessioni, in tempi diversi. L’unità minima di registrazione è la traccia, e per ogni sessione di registrazione si possono registrare una o più tracce, fino a raggiungere il numero massimo di 99. Ovviamente basta impegnare una traccia anche solo per pochi dati, perché quella traccia non sia più disponibile nella sessione successiva. Mentre il contenuto del disco non è ancora definitivo, il CD-R può essere letto solamente dal 54 masterizzatore e non viene riconosciuto dai lettori di CD-ROM. Il CD-R diventa CD-ROM, cioè può essere letto dai normali drive, solamente quando vi si registrano le informazioni necessarie perché sia riconosciuto. Da questo momento non si possono aggiungere più tracce. Entrambe queste tecnologie hanno un grosso inconveniente: il flusso dei byte dal computer al laser deve essere continuo ed ininterrotto. Se si verifica il minimo inconveniente (magari dovuto ad un’attività in multitasking, all’intervento di un salvaschermo, al controllo periodico di un antivirus...) il processo di scrittura si interrompe ed il CD-R diventa inutilizzabile. Questo errore, terrore di chiunque lavori con i masterizzatori, si chiama “buffer underrun”. Una volta finita la registrazione sul CD-R, questo diventa un normale CD-ROM, conforme allo standard ISO 9660, con l’unica differenza che i normali CD-ROM sono di colore argentato ed i CD-R sono dorati. Questa colorazione dipende dal materiale policristallino presente sulla sua superficie. Esistevano CD-R con altri materiali, di colori verde e celeste, ma avevano prestazioni inferiori. I masterizzatori hanno, di solito, due velocità: una di scrittura ed una di lettura. La velocità di scrittura è ovviamente inferiore a quella di lettura, in quanto l’operazione è molto più complessa. In lettura abbiamo velocità fino a 6x, mentre in scrittura possiamo avere 2x o 4x. Masterizzatori CD-RW I normali masterizzatori per CD-ROM consentono di registrare sul CD-R una sola volta. I masterizzatori di tipo CD-RW, invece, posso essere utilizzati come un vero e proprio hard disk, poiché consentono di registrare, cancellare e di nuovo registrare dati sul CD-ROM anche parzialmente ed in tempi diversi. La tecnica di registrazione viene chiamata Packet Writing, e consiste nella capacità di inviare dati al masterizzatore suddivisi in pacchetti, ognuno di dimensioni inferiori alla capacità del buffer, evitando così il famigerato errore “buffer underrun” tipico dei masterizzatori Disk At Once o Track At Once. Ciascun CD-RW può essere cancellato e riscritto totalmente per 1.000 volte circa. E’ indubbiamente un passo avanti rispetto ai CD-R immodificabili, anche se ancora lontano dai dischi ottici cancellabili e riscrivibili fino a un milione di volte. La tecnologia è simile a quella CD-R: un laser che scalda ad alta temperatura lo strato policristallino e lo rende amorfo. La cancellazione, cioè la possibilità del materiale cristallino a tornare riflettente, si ottiene scaldandolo a temperatura meno alta ma per più tempo. Vi sono, però, due grossi problemi che ne ostacolano la diffusione. Il primo è che i CD-RW adottano un nuovo standard, ISO 13490, incompatibile con ISO 9660 e quindi con hardware e software che riconosca solamente il ISO 9660. In particolare, con i lettori di CD-ROM prodotti prima dell’invenzione dei CD-RW. D’altra parte ISO 9660 è un formato statico ed i file di sistema non possono essere modificati, è adatto cioè ad un disco immodificabile e non è possibile utilizzarlo per dischi modificabili. Il secondo problema è di natura hardware: i CD-RW, in lettura, riflettono molto meno la luce del laser, solamente un quarto di quella riflessa dai CD-ROM. E questo rende impossibile a molti dispositivi di utilizzarli. In pratica, i CD-RW possono essere letti con sicurezza solamente dai masterizzatori CD-RW e da pochi altri lettori: quelli Multi Read e i lettori di DVD (ma non tutti). Data la scarsa diffusione, i masterizzatori CD-RW hanno ancora un alto costo, così come i singoli CD-RW. Questi ultimi, ad esempio, costano 5 volte più di un CD-R. 55 Digital Versatile Disk (DVD) Se si ha una certa familiarità coi lettori di CD-ROM, comprendere i DVD-ROM dovrebbe essere abbastanza facile. In fin dei conti, esternamente i relativi drive sembrano identici ai lettori di CD-ROM. Anche i lettori di DVD-ROM usano un meccanismo ottico basato su raggio laser per leggere i dati da dischi di dimensioni standard. Perfino i dischi sembrano identici, anche se i DVD-ROM hanno una maggiore densità di tracce, che permette di registravi sopra ingenti quantità di dati. I lettori di DVD-ROM inviano sul disco un raggio laser di colore rosso. Il meccanismo rileva le variazioni della luce laser riflessa dalla superficie del supporto e le interpreta come 1 e 0. I drive DVD-ROM differiscono dai lettori di CD-ROM perché il raggio laser è molto più focalizzato e di colore diverso da quello utilizzato nei lettori di CD-ROM. Anche fra i supporti dei DVD-ROM e dei CD-ROM esistono analogie e differenze. Entrambi hanno minutissime incavature sulla superficie (dette pit), che il meccanismo ottico interpreta come dati. I drive DVD-ROM però hanno pit molto più ravvicinati e tracce concentriche più compatte, che possono contenere molti più dati su di un disco. Numerosi centri di ricerca hanno cominciato a studiare i modi per aumentare la capacità di memorizzare dei dischi e dei lettori di CD-ROM. Nuove tecniche di fabbricazione e tecniche laser perfezionate hanno spianato la via per ottenere capacità di memoria ben oltre il limite dei 650 MB dei CD-ROM. Sono emerse così ben presto due organizzazioni e due specifiche di progetto concorrenti: Super Density, da parte di un gruppo di società guidate da Toshiba, e il Multimedia CD della Philips. Ciò minacciava di diventare il classico caso di blocco reciproco di standard, che poteva mettere in pericolo il successo del nuovo standard. Avendo presente la costosa battaglia degli anni '80 fra gli standard concorrenti per le videocassette (VHS e Betamax), alla fine i due gruppi nel 1996 decisero di cooperare per definire uno standard unificato. Il risultato venne chiamato DVD. Varie richieste da parte dell'industria cinematografica hanno però reso più complesso il progetto iniziale. Questo settore vedeva nel DVD un supporto eccezionale per la distribuzione nell'ambito domestico di film a elevata qualità. I lettori DVD-ROM esistono in due formati: Riproduttori di DVD Drive per DVD-ROM Intesi per l'uso negli ambienti domestici, i riproduttori (lettori) di DVD sono scatole che possono essere inserite direttamente nei televisori: in pratica sono gli eredi degli attuali VCR e riproduttori Laserdisc. Per i PC, invece, i lettori di DVD-ROM hanno l'aspetto di lettori di CD-ROM e funzionano esattamente nello stesso modo. Hanno bisogno, però, di hardware aggiuntivo, di solito una scheda di espansione che gestisce le complicate operazioni per l'elaborazione video e audio, oltre a decifrare i dati del disco. In pratica, il DVD è costituito da quattro specifiche in una, con tecniche separate per memorizzare da 4,7 a 17 GB di dati su un singolo disco. Sfruttando la stratificazione dei supporti e l'impiego di entrambe le facce del disco, sono supportati quattro livelli: Faccia singola, singolo strato: 4,7 GB Faccia singola, doppio strato: 8,5 GB Faccia doppia, singolo strato 9,4 GB Faccia doppia, doppio strato 17 GB Tutti i dischi DVD, indipendentemente dalla loro capacità, hanno diametro e spessore eguali a quelli dei normali CD-ROM (diametro di 12 cm e spessore di 1,2 mm). Attualmente è disponibile il primo e meno capace tipo di DVD, quello da 4,7 GB. Entro poco tempo dovrebbero seguire gli altri. Fortunatamente, tutti i riproduttori di DVD e lettori di DVD-ROM venduti oggi saranno in grado di leggere tutti i formati. Una buona notizia è che alcune migliorie costruttive hanno permesso agli attuali impianti di fabbricazione di lettori di CDROM di essere ristrutturati per fabbricare DVD-ROM. Il cambiamento più importante riguarda la tecnica di incollaggio, in cui due sottili dischi di 0,6 mm (substrati) vengono assemblati per crearne uno solo dello spessore di 1,2 mm. Il primo substrato, non presente sui CD-ROM, fornisce la funzionalità "doppio strato" che può contenere un altro livello di dati memorizzati. In pratica, i DVD sono due dischi in uno. 56 Considerazioni finali I primi personal della storia dell'informatica utilizzavano cassette con nastro magnetico, le stesse usate per la registrazione audio. Il caricamento dei programmi era molto lento, ancora di più lo era la ricerca di un particolare punto del nastro con il documento che volevamo richiamare, ed ancora più lenta la registrazione del lavoro svolto. Con l'aumento della capacità di memoria dei computer, con il crescere della loro potenza e della complessità che certi programmi richiedono per la registrazione dei loro documenti, ma soprattutto con il nascere di applicazioni grafiche e multimediali, si è acuita la necessità di usufruire di unità di memoria di massa sempre più capaci e sempre più veloci. Possiamo dire che le memorie di massa che abbiamo esaminato corrispondo ognuna a diverse esigenze di archiviazione, alla quale cercano di corrispondere in modo ottimale. La commercializzazione del software e la registrazione di documenti di piccole dimensioni viene effettuata tramite i floppy disk da 5,25 pollici o da 3,5 pollici. Si tratta di una memoria di massa adottata da tutti i computer e che garantisce la massima adattabilità. Sono utilizzati per il trasferimento di dati fra computer non collegati in rete, ma sono limitati a documenti non più grandi della loro limitata capacità di archiviazione. Il lavoro quotidiano viene svolto leggendo e registrando su dischi rigidi interni. La capacità può essere scelta fra una vasta gamma di dimensioni, a seconda delle esigenze di archiviazione. La velocità di accesso, cioè la velocità con cui il dato viene letto, è ottima ed i prezzi ormai contenutissimi. Nella configurazione di base di tutti i computer commercializzati è presente un disco rigido interno. La sua capacità varia in proporzione alla potenza del personal. Comunemente si va da 20Mb 0 40Mb, per i modelli inferiori, fino ai 160Mb o più per i modelli superiori. I dischi rigidi rimovibili sono il mezzo adatto al trasferimento di un numero cospicuo di dati, o per documenti molto voluminosi, fra due computer non collegati in rete. I dischi rigidi rimovibili hanno capacità di archiviazione paragonabile a quella di un disco rigido fisso, con in più la praticità di poterlo cambiare molto velocemente. In alcuni casi possono essere una valida alternativa ai dischi rigidi esterni. I dischi rigidi rimovibili sono anche indicati per la conservazione storica dei documenti, poiché consentono una rapida ricerca e lettura del singolo documento. Le unità di memoria di massa a nastro sono il mezzo ideale per effettuare copie di riserva di archivi di dati, grazie alla loro alta velocità di registrazione ed al basso costo delle cartucce. Si possono copiare i dati contenuti in un computer, od in una intera rete di personal, in poco tempo e conservare le cartucce indefinitamente senza dover immobilizzare un capitale. I Compact Disc ottici, per la loro caratteristica di consentire solo la lettura, sono utilizzati per la consultazione di opere che, tradizionalmente, erano stampate in libri. Codici, giurisprudenza, manuali, dizionari, vocabolari, annuari, ma anche opere letterarie come la Divina Commedia o la Bibbia. Il CD consente di effettuare rapide ricerche incrociate di singole parole o di argomenti, ricavando istantaneamente le referenze ed i testi relativi, rivelandosi un mezzo rivoluzionario di lavoro. L'unica controindicazione è l'alto prezzo delle opere pubblicate su Compact Disc, molto superiore alle stesse in edizione stampata su carta. Una applicazione recente del Compact Disc ottico è nel campo educativo e culturale. Sul CD possono essere registrate immagini, testi e suoni, il tutto in modo omogeneo e strutturato per formare uno strumento di conoscenza efficace. Il computer consente di navigare fra tutte queste informazioni e di presentarle secondo tutte le possibili combinazioni desiderate dall'utente. Questa applicazione, chiamata multimedialità, rappresenta una grossa risorsa di sviluppo per i computer del futuro. I dischi ottici scrivibili vengono utilizzati quando sia necessario avere a disposizione un numero ingente di documenti. Esistono disk drive ottici in grado di ospitare contemporaneamente molti singoli dischi ottici, sia in lettura che in registrazione. Questi dispositivi, chiamati juke box ottici, sommano così molte centinaia di megabyte di capacità di archiviazione. E' quasi un obbligo ricorrere a queste unità di memoria di massa quando si deve lavorare con immagini grafiche, sia di illustrazioni che di fotografie digitalizzate. Un singolo documento contenente una immagine a colori richiede molte centinaia di kilobyte ed anche il disco rigido più capace ne sarebbe, in breve tempo, saturato. Si tratta dell'unità di memoria di massa più costosa, sia per i singoli dischi che per i disk drive. 57 La standard SCSI Molte unità di memoria di massa, o meglio i loro disk drive, appartengono allo standard industriale SCSI, da Small Computer System Interface, che consente il collegamento di più dispositivi, fino a sette, utilizzando una sola scheda di interfaccia. Le unità che non corrispondono a questo standard richiedono una scheda ciascuna. La praticità è evidente, così anche il risparmio. A ciò si deve aggiungere la portabilità: le unità di memoria di massa SCSI sono trasferibili da computer a computer, sia nello stesso ambiente operativo che in altri, senza alcuna modifica. Questi standard viene messo in commercio con due differenti ampiezze di BUS dati, 8 e 16 bit, con rispettivamente 8 e 16 periferiche concatenabili su ogni canale. Siccome il controller è contato come periferica, ecco che rimangono 7 o 15 indirizzi disponibili. Ciascuna periferica utilizzata è identificata da un numero SCSI ID, impostabile arbitrariamente, e gli estremi della catena SCSI devono essere terminati, di solito tramite un interruttore che attiva una resistenza sul connettore. Qui di seguito viene illustrata la gamma di specifiche delle versioni SCSI. Ampiezza del Bus 8-bit (narrow) 16-bit (wide) SCSI Standard 5 Mb/s 10 Mb/s Fast SCSI 10 Mb/s 20 Mb/s Ultra SCSI Ultra-2 SCSI Ultra-3 SCSI Ultra320 SCSI 20 Mb/s 40 Mb/s 40 Mb/s 80 Mb/s 160 Mb/s 320 Mb/s 58 Modem e telecomunicazioni Il modem è una apparecchiatura che serve per mettere in contatto due computer distanti fra di loro, tramite la linea telefonica analogica o digitale. La parola modem deriva da una sintesi dei termini “modulatore” e “demodulatore” ed esprime il suo funzionamento con le linee telefoniche analogiche, per le quali è nato. Queste linee sono adatte alla trasmissione di suoni, non di impulsi digitali. I bit, quindi, non possono transitare così come sono, ma devono essere prima trasformati in suoni, o meglio in “fischi” modulati. Questa è la prima funzione del modem: ricevere i bit dal computer e trasmetterli come suoni. La seconda funzione del modem è di compiere il procedimento inverso: trasformare i suoni modulati, che arrivano dalla linea telefonica, in bit da inviare al computer. Con questa “traduzione simultanea” due computer possono scambiarsi dati (bit) trasmettendosi “fischi”. E’ lo stesso procedimento utilizzato dai fax, ed a tutti è capitato di comporre un numero telefonico e di sentirsi rispondere da una serie di fischi acuti: è la “voce” di un fax che risponde al telefono. Utilizzando la stessa procedura di modulazione/demodulazione, modem e fax possono quindi essere integrati in una stessa apparecchiatura, il modem/fax. Modulazione e demodulazione Il modem viene collegato da una parte alla porta seriale del computer, dall’altra alla linea telefonica. Con un software di comunicazione il modem è in grado di selezionare un numero telefonico, all’altro capo del quale si trova un secondo modem, collegato da parte sua ad un computer sul quale è in esecuzione un software di comunicazione. Il flusso di bit dei dati del primo computer esce dalla porta seriale ed arriva al modem. Qui il circuito di modulazione provvedere a trasformare i bit in frequenze sonore che possono essere inviate lungo le linee telefoniche. Il secondo modem riceve le frequenze sonore e, con un circuito di demodulazione, le trasforma in bit, inviandone il flusso alla porta seriale del computer cui è collegato. Con questo semplice passaggio, di modulazione di frequenze sonore alla partenza e di demodulazione all’arrivo, è possibile connettere due computer come se fossero a pochi centimetri di distanza. L’unica differenza sta nella velocità di comunicazione. Mentre il flusso di dati può viaggiare fino a 230’000 bit al secondo se i due computer sono in connessione diretta, la velocità massima permessa dalle linee telefoniche è di 56’600 bit per secondo, ma i disturbi, le interferenze e le difficoltà di ricezione spesso costringono ad utilizzare velocità di 28’800 bit per secondo, a addirittura inferiori. Protocolli Come abbiamo visto parlando delle porte del computer, la trasmissione seriale di dati impone la scelta del protocollo, che non riguarda solamente la velocità, ma anche l’esistenza di codici di controllo ed il formato del flusso dei bit. Poiché la trasmissione di dati molto spesso coinvolge nazioni diverse, i protocolli utilizzabili sono stati definiti da un organismo internazionale, il Comitato Consultivo Internazionale per la Telegrafia e Telefonia. Il CCITT ha stabilito numerosi standard, ed a questi si sono uniformati tutti i costruttori di modem. Negli Stati Uniti si usano standard diversi per la trasmissione dati, definiti Bell, dalla ditta che li ha elaborati. Ovviamente i due modem corrispondenti ai due capi della linea telefonica, devono essere preimpostati con lo stesso protocollo, altrimenti la trasmissione è impossibile. 59 Commutata e ISDN I modem si possono dividere in due grandi settori: quelli per linee telefoniche commutate e quelli per linee telefoniche ISDN. Le linee telefoniche commutate sono le normali linee telefoniche. La comunicazione si effettua tramite la selezione di un numero telefonico e l’instradamento attraverso vari centraline su linee utilizzate contemporaneamente anche da altri utenti per diverse collegamenti. Le linee ISDN sono installazioni particolari con le quali il collegamento fra i due punti, pur utilizzando spesso, almeno in parte, le normali attrezzature telefoniche, è elaborato con particolari tecnologie che permettono una trasmissione senza alcun errore e più veloce. La differenza è sostanziale. Nel caso della linea commutata i due computer lavorano isolati per la gran parte del loro tempo, salvo effettuare una telefonata quando è necessario uno scambio di dati. La linea è però soggetta a disturbi derivati dall’instradamento e dalla condivisione della linea. Nel caso della linea ISDN scambio di dati è assente da disturbi. Nell’uno e nell’altro dei casi è necessario un modem a ciascun capo della linea, ma i modem per linea commutata sono del tutto diversi da quelli per linea ISDN. Avere una linea ISDN è ovviamente molto più costoso, tuttavia ha il vantaggio di avere due numeri telefonici del tutto indipendenti e di consentire un minore impegno di linea (e quindi un minor consumo di scatti) se si usa spesso il modem (di tipo ISDN) o il fax (però di tipo ISDN anch'esso). Utilizzare una linea ISDN con un modem normale (o con un fax normale) non porta ad alcun vantaggio complessivo. Linee dedicate Diverso è il discorso delle linee dedicate. Si tratta di collegamenti telefonici permanenti, sempre attivi, che servono ad utilizzatori "intensi" come può essere il computer centrale di una banca, collegato su linee dedicate a tutte le agenzie sul territorio nazionale. I dati devono risiedere nell’elaboratore centrale per poterne consentire l’accesso da parte di qualunque agenzia si rechi il correntista per incassare un assegno. D’altra parte è necessario che qualsiasi operazione effettuata in una filiale venga immediatamente registrata nell’elaboratore centrale perché le altre filiali, richiedendo la situazione del cliente per l’incasso di un altro assegno, possano avere quella reale e non quella del giorno prima. Se ciò non avvenisse con una comunicazione continua e grazie ad una linea dedicata, un cliente potrebbe prelevare più denaro di quanto ne abbia sul conto, presentandosi in filiali diverse in momenti di poco successivi o con complici in altre città. Questo tipo di collegamento, con costi ingenti per la linea e per apparecchiature modem dal prezzo elevato, è appannaggio quasi esclusivo di grandi aziende. Inoltre si tratta del collegamento fra elaboratori di grandi o medie dimensioni, raramente di personal computer. Caratteristiche tecniche I modem per linea commutata in commercio hanno caratteristiche comuni: - comandi Hayes, così chiamati dalla ditta americana che li elaborati. Si tratta di un linguaggio di comandi con il quale il computer dirige il funzionamento del modem; - velocità massima secondo le nostre esigenze: 300, 1’200, 2’400, 4’800, 9’600, 12'200, 28'800, 36'600 baud (bit per secondo) ed oltre; - protocolli: CCITT se si vuole comunicare esclusivamente con paesi europei, Bell se anche con gli Stati Uniti; - correzione d’errore: MNP4, che consente la ricezione dei dati esattamente come sono stati trasmessi, eliminando ogni possibile bit modificato da interferenze (non è presente nei modem più economici); - compressione: MNP5, che invia i bit codificandoli in modo che lo scambio effettivo di dati sia più veloce della velocità tecnica del collegamento (non è presente nei modem più economici). Le apparecchiature più recenti presentano, oltre ad un costo più contenuto rispetto ai vecchi modelli, ed a dimensioni più piccole, alcune innovazioni tecnologiche: 60 - autoriconoscimento del protocollo: il modem è in grado di riconoscere il protocollo usato dal modem corrispondente e di regolarsi da solo sullo stesso protocollo; - capacità telefax: la tecnica di trasmissione dei telefax non è molto distante da quella dei modem. Basta un piccolo circuito in più ed il modem è in grado di trasmettere e ricevere telefax, collegandosi con le tradizionali apparecchiature telefax. In coincidenza con il successo dei computer portatili, sono stati prodotti un buon numero di modem portatili che alle caratteristiche tecniche più diffuse aggiungono: - adattabilità, grazie alla presenta di tipi diversi di connettori telefonici, compresi i telefoni pubblici, quelli utilizzati negli alberghi e gli apparecchi cellulari; - autoalimentazione, che ne permette l’uso in situazioni particolari. Indipendenti ed a schede I modem sono apparecchiature standardizzate, utilizzabili da tutti i computer. Cambiando personal è possibile conservare lo stesso modem. Addirittura il cambio di ambiente, da quello DOS a quello Macintosh, permette di usare lo stesso modem con la sola sostituzione del cavetto di collegamento a causa della diversità della porta seriale. Ciò è un grande risparmio, senza dubbio, ma il modem indipendente occupa spazio sulla scrivania, va acceso e spento, ha bisogno di un alimentatore adattatore di corrente a parte. Alcuni utenti trovano più conveniente utilizzare i modem cosiddetti interni, i cui componenti sono stati assemblati su una scheda da inserire in uno slot all’interno del computer. Si ha il vantaggio di non dover accendere né spengere il modem, perché la scheda si alimenta direttamente dal computer. Non c’è neanche bisogno del trasformatore adattatore esterno. L’altra faccia della medaglia è che, cambiando personal, non c’è la garanzia che la scheda modem funzioni anche nel nuovo computer, rischiando di dover ripetere l’acquisto. Modem/telefax I modem/telefax sono molto semplici nell’uso, soprattutto in fase di trasmissione. Dopo aver elaborato il nostro documento su schermo come al solito, lo inviamo in stampa al modem. In questo caso il modem/telefax finge, rispetto al computer, di essere una stampante. Il testo, invece di essere stampato, viene trasformato in frequenze sonore, simili a quelle utilizzate per la trasmissione dati ma usando protocolli diversi. Inviato ad una apparecchiatura telefax attraverso la linea telefonica, il fax risulta totalmente identico a quello che sarebbe arrivato se il documento fosse stato stampato su carta e quindi trasmesso con un telefax normale. La ricezione non è molto diversa, salvo che in questo caso il modem demodula le frequenze sonore emesse dall’apparecchiatura telefax e le trasforma in un documento grafico. Purtroppo non è ancora possibile la trasformazione del telefax in semplice testo, non solo leggibile ma anche elaborabile. Il fax arrivato è invece una vera e propria fotografia, occupando anche un rilevante spazio sul disco per la sua registrazione. La gran parte dei modem/telefax prevede solo la trasmissione dei fax e non la ricezione. La differenza di costo con un modem normale non è rilevante. Inoltre il modem/telefax consente un grosso vantaggio rispetto alle apparecchiature telefax: la trasmissione automatica. Grazie al software di gestione del modem si può inviare un fax a destinatari multipli e ad orari differiti. Questo consente un notevole risparmio sia di tempo che di costi. Non è più necessario passare le ore all’apparecchiatura telefax per inviare alcune diecine di fax, perché il modem/fax effettua l’operazione autonomamente. Se trova un numero occupato od un fax staccato, continua a provare ad intervalli prestabiliti. Alla fine notifica all’utente i fax inviati e quelli che non è stato possibile inoltrare. Poiché le tariffe teleselettive sono inferiori durante la notte, è un grande vantaggio lasciare che il modem/telefax effettui le sue operazioni dopo le ore 22. E’ sufficiente mettere in lista di spedizione per quell’ora i diversi fax da trasmettere, ed il mattino successivo troveremo 61 sullo schermo la solita lista dei fax inoltrati e di quelli che non è stato possibile spedire. Considerazioni finali Si utilizza il modem per collegare due computer che devono scambiarsi dati, come fra la filiale di una ditta e la sede centrale per aggiornare il magazzino, gli ordini, la contabilità. Oppure ci si collega ad un elaboratore di grandi dimensioni, per ricevere ed utilizzare dati in suo possesso. Fra gli esempi più diffusi di elaboratori cui si può accedere via modem per ricavare informazioni: - Cerved, centro calcolo delle Camere di Commercio: detiene tutti i dati sociali di tutte le società ed aziende commerciali di capitali e di persone esistenti in Italia, compresi i bilanci, e gli organi sociali. Ha inoltre l’elenco di tutti gli effetti bancari od assegni andati in protesto in Italia, con nome del traente. Sono inoltre a disposizione dati sul commercio con l’estero e sulle fiere internazionali; - Poligrafico dello Stato: rende disponibili i testi originali delle Leggi dello stato e di tutti i decreti pubblicati sulla Gazzetta Ufficiale; - Seat, società editrice delle Pagine Gialle Telefoniche: con l’equivalente elettronico delle Pagine Gialle,; - Ansa: l’intero archivio storico di tutte le notizie trasmesse ai giornali. Oltre all’attività di consultazione di archivi di informazioni residenti su computer lontani, il modem serve anche per collegarsi attivamente a servizi telematici come: - Postel, servizio di posta elettronica dell’Amministrazione Postale: consente l’invio di lettere, circolari, fatture, effetti e telex direttamente dal computer, garantendo una consegna a destinazione molto più celere del servizio ordinario delle poste. Il servizio Postel, infatti, si basa su una ventina di elaboratori nelle maggiori città italiane. Una lettera scritta su un computer a Milano, per un destinatario a Roma, viene inviata all’elaboratore Postel di Milano che la inoltra al suo omologo di Roma, il quale provvede a stamparla direttamente all’interno del centro postale di smistamento. Nell’arco di 12/24 ore la lettera è consegnata. Con un sovrapprezzo è possibile utilizzare il servizio Postacelere per una consegna entro 6 ore. In campo internazionale è possibile accedere a banche dati di ogni genere, di consultazione scientifica, finanziaria, industriale, medica, ma anche servizi di assistenza e consulenza organizzati dalle case produttrici di computer o dalle software house che in questo modo forniscono ai propri clienti informazioni sempre complete ed aggiornate. Ci si può collegare alle agenzie stampa come Associated Press o Roiter per i lanci di notizie in diretta, o per seguire particolari avvenimenti. Esistono servizi telematici professionali, grazie ai quali una categoria di esperti può scambiarsi notizie ed opinioni partecipando ad una continua conferenza a livello mondiale. Indipendentemente dalla località nella quale abitano o lavorano, ingegneri, medici, giornalisti, avvocati, ricercatori, ma anche presentatori di varietà, skipper, piloti aeronautici o pompieri, possono collegarsi con il loro computer e partecipare pubblicamente, oppure inviarsi messaggi personali. Anche il tempo libero ha la sua quota di comunicazione elettronica. Numerosi servizi telematici sono gratuiti, od a basso costo, e servono allo scambio di messaggi ed esperienze hobbistiche o personali. Vi sono poi basi di dati con trame di film o di telefilm e soap opera, classifiche musicali o letterarie, giochi di simulazione o scacchi in corso fra partecipanti di vari continenti. E’ possibile effettuare acquisti, via computer, presso le più grandi catene di grandi magazzini statunitensi o presso piccoli artigiani delle Hawai. Ottenere una dieta bilanciata o consigli sul controllo delle nascite, su come smettere di fumare o di bere alcoolici. Si possono comprare o vendere oggetti usati, biciclette, macchine fotografiche, e qualsiasi altra cosa, fra privati. O trovare suggerimenti sull’allevamento di pesci da acquario. Non c’è limite alla quantità di informazioni alle quali si può accedere. 62 Collegamenti a grande distanza Spesso gli elaboratori a cui è necessario collegarsi sono distanti parecchi chilometri e una chiamata telefonica diretta farebbe arrivare bollette stratosferiche per i costi della teleselezione. Per fortuna esiste un particolare servizio della SIP che consente il collegamento di computer a costi ridotti: la rete Itapac. Utilizzando Itapac, collegarsi con l’elaboratore Cerved, che si trova a Padova, non richiede la teleselezione da Milano. Si può trasmettere i dati al centro Itapac di Milano, che si mette in contatto su una linea speciale con il centro Itapac di Padova, il quale ci consente il collegamento con il Cerved. Questo passaggio è totalmente trasparente per il transito dei dati, una volta stabilito il contatto. Anzi, poiché si utilizza la linea telefonica solo in piccola parte, e la linea utilizzata da Itapac è dedicata alla sola trasmissione dati, il flusso dei bit subirà minori interferenze di un collegamento telefonico diretto. Ciò fa risparmiare in modo consistente non solo sull’ordinaria telefonata in teleselezione, ma anche sull’installazione di una linea dedicata quando questa non sarebbe utilizzata in continuazione. 63 Scheda di rete La rapida crescita di Internet ha trasformato il PC in un'unità indispensabile per le comunicazioni. La posta elettronica, i file condivisi, le applicazioni e i servizi di rete sono da lungo tempo strumenti indispensabili per tutti gli utenti di PC a livello aziendale, instituzionale, di pubblici esercizi e anche a uso domestico. Sempre più i PC in rete devono potersi connettere l'uno con l'altro ed ecco entrare prepotentemente in gioco la scheda di rete o Network Interface Card (NIC). Questo componente, che rappresenta la connessione fisica alla rete, converte le informazioni che transitano sulla rete in pacchetti di dati con dimensione standard. Tali pacchetti vengono convertiti in segnali elettrici che vengono trasferiti sul cavo. All'estremità ricevente, una scheda di rete riceve il segnale elettrico e quindi decodifica e riassembla i singoli pacchetti che vengono successivamente inviati al computer. La NIC controlla i pacchetti in ingresso per accertersi che tutti vengano ricevuti correttamente, una funzione chiamata controllo errori. Le NIC si inseriscono negli alloggiamenti delle schede di espansione e sono disponibili per slot dei bus ISA, PCI e EISA. Sebbene in passato la maggior parte dei client utilizzasse NIC basate su ISA, la larghezza di banda più elevata, una più veloce elaborazione (bus mastering e così via) e la funzione Plug and Play del bus PCI hanno reso le NIC con bus sempre più in espansione. Il potenziamento della velocità della rete trarrà sicuramente vantaggio della veloce connessione al bus PCI. Società quali 3Com e altre commercializzano svariati tipi di schede di rete. Quando la NIC è fisicamente installata sul PC è necessario collegarla al cavo di rete. Se si utilizza una rete Ethernet sono disponibili due connettori sul retro del PC. Il primo è un piccolo cilindro che assomiglia al connettore d'antenna dei televisori; serve per un connettore coassiale BNC. L'altra connessione, che assomiglia a un comune connettore telefonico, soltanto leggermente più largo, serve per cablaggi con doppino telefonico. Si utilizzerà uno solo di questi connettori in base al tipo di rete su cui dovremmo operare. 64 Il monitor Il monitor è la principale periferica di output del computer. Tramite il monitor noi possiamo lavorare con il sistema operativo e con i singoli programmi. Possiamo vedere il contenuto delle unità di memoria di massa e modificarlo; visualizziamo i documenti, li creiamo ed elaboriamo; seguiamo lo spostamento del puntatore sui diversi oggetti sullo schermo (pulsanti, menu, finestre, parti del documento) e possiamo agire ed impartire comandi od eseguire funzioni tramite i pulsanti del mouse... Il monitor è indispensabile persino in un computer con il quale non lavora mai nessuno, come in un server di rete sempre acceso ed in funzione: sullo schermo appaiono i dati sul traffico di rete e su tutti gli “avvenimenti” più importanti, collegamenti e scollegamenti, errori di connessione, blocchi, che riguardano lo stato del sistema. La stessa parola “monitor”, in inglese, vuol dire “controllo”. Esistono in commercio due tipi di monitor: CRT, ovvero con tubo a raggi catodici, e LCD, ovvero a cristalli liquidi. I monitor CRT vengono utilizzati da tutti i computer desktop. Hanno una affidabilità e fedeltà imbattibile con altre tecnologie, ma occupano lo stesso spazio di un televisore e, per motivi di visibilità, non è possibile ridurre le dimensioni dello schermo, e quindi del tubo catodico. Gli schermi LCD occupano pochi centimetri di spessore, sono quindi installati sui computer portatili e sui notebook. Ma la tecnologia a cristalli liquidi ha raggiunto tali livelli qualitativi da rendere disponibili monitor LCD anche per i computer desktop. Il vantaggio è la notevole riduzione di spazio che occupano sulla scrivania, lo svantaggio è il costo. Monitor CRT Il monitor installato su un personal ricevere i segnali video dall’adattatore grafico. Logico quindi che ne condivida lo standard, altrimenti non ne potrebbe interpretare i comandi. E’ difficile trovare in commercio monitor adatti a vecchi standard grafici, precedenti al VGA. Poiché gran parte dei computer commercializzati attualmente hanno schede video SVGA, questo è lo standard più frequente anche nei monitor. Il monitor CRT utilizza la stessa tecnologia dei televisori, basata su un raggio catodico e sulla proprietà dei fosfori di immagazzinare radiazioni luminose e di restituirle lentamente. I fosfori formano delle righe di piccoli punti nella parte interna dello schermo. Partendo dal tubo catodico, un raggio di elettroni colpisce i fosfori là dove l’immagine deve essere più luminosa, passando su tutto schermo, riga a riga, e riprendendo il tragitto dall’inizio prima che i fosfori abbiano esaurito la luminosità. Noi, dalla parte esterna dello schermo, vediamo le emissioni luminose dei fosfori e le immagini che formano. I fosfori sono di un solo colore nei monitor monocromatici, spesso verdi, e di tre colori nei monitor a colori. In questo caso i raggi di elettroni sono tre, uno per ogni colore di fosfori: rosso, giallo e blu (per questo i monitor a colori sono chiamati RGB). Quando sono “accesi” tutti e tre i fosfori adiacenti dei tre colori, si ottiene il bianco; quando sono spenti si ottiene il nero; quando sono accesi con luminosità diverse si ottengono gli altri colori. A seconda della capacità della scheda grafica di inviare segnali che “dosano” la forza del raggio di elettroni, si possono visualizzare da 256 a 16,7 milioni di colori. Più i fosfori sono piccoli e numerosi, meglio le immagini sullo schermo sono definite. Ogni gruppo di tre fosfori forma il “pixel”, cioè il singolo punto luminoso sullo schermo, ed è questa la misura della risoluzione del monitor. In un monitor con risoluzione di 1024x768 pixel sono presenti sullo schermo 1024 gruppi di fosfori, pixel, in larghezza e 768 pixel in altezza. La frequenza rappresenta la velocità con la quale il tubo catodico disegna l’immagine, il cosidetto “refresh”, cioé “rinnovo” dell’immagine sullo schermo. Una frequenza inferiore a 75 MHz è sconsigliabile. Una frequenza di 85 MHz è quella media, mentre i monitor di alta qualità superano i 100 MHz. Se la frequenza è bassa, sullo schermo appare il “flickering”, cioè lo “sfarfallio”. In pratica i fosfori perdono la luminosità prima che il tubo catodico rinnovi l’immagine con un altro passaggio. 65 Monitor LCD Gli schermi LCD ed a plasma sfruttano le caratteristiche di questi materiali di polarizzarsi, cambiando colore, per gli effetti magnetici del passaggio di energia elettrica a bassa intensità. Sostanze entrambe chiare, diventano scure, formando il testo o il grafico da visualizzare. Le immagini originate sono spesso poco contrastate, per cui è frequente il ricorso ad una illuminazione proveniente dal fondo dello schermo per renderle maggiormente visibili. Esistono sia schermi LCD che a plasma a colori, ma sono modelli alquanto costosi e dai risultati mediocri. La pressoché totalità è monocromatica, con una strana particolarità: le schermate che hanno fondo nero e caratteri chiari sui monitor CRT, hanno fondo chiaro e caratteri scuri sugli schermi LCD e a plasma. Gli schermi dei computer portatili, essendo integrati nella macchina, non presentano problemi di abbinamento con la scheda video, anch’essa integrata nella scheda madre. Nella maggior parte dei casi utilizzano lo standard VGA. Alla corrispondenza fra standard della scheda video e standard del monitor fa eccezione un particolare tipo, chiamato multisync, che è in grado di adattarsi alle diverse schede video, comprese quelle che consentono una risoluzione speciale ed un alto numero di colori visualizzabili. Con un costo più alto rispetto ai monitor VGA, il multisync ha però una qualità nell’immagine senz’altro superiore, anche a parità di standard. Essendo indipendente dalla scheda video, un monitor multisync può consentire l’aggiornamento graduale di un computer, passando dalla VGA alla SVGA ed infine ad una scheda grafica speciale senza doverlo sostituire. Le dimensioni di un monitor non sono calcolate misurando la base e l’altezza, bensì la diagonale in pollici. Uno schermo da 14 pollici ha una diagonale, dall’angolo in alto a sinistra all’angolo in basso a destra, di 14 pollici. Anche in questo i monitor per computer hanno imitato i televisori. I monitor CRT di tipo multisync utilizzano due diversi modi di visualizzazione dell’immagine sullo schermo: - il modo interlacciato, nel quale l’immagine è composta da due immagini parziali che si alternano ad alta velocità: il raggio di elettroni disegna prima una parte dell’immagine e quindi l’altra. Questo tipo di visualizzazione è ideale per la resa di immagini in movimento, quindi di rara utilità nelle normali applicazioni; - il modo non interlacciato, nel quale l’immagine è effettivamente unica, disegnata completamente volta per volta dal raggio di elettroni. Il cambio di immagine sullo schermo è più lento, adatto a schermate fisse. - Considerazioni finali Il monitor deve essere scelto in funzione di due fattori: - lo standard grafico della scheda video; - le nostre necessità “visive”. La scelta secondo lo standard grafico è semplice. Se la scheda è EGA il video deve essere EGA, se la scheda è VGA il monitor deve essere VGA. L’unica eccezione è la scheda SVGA/UVGA, che permette la presenza di un monitor VGA al posto di uno multisync. Naturalmente in questo caso il monitor non potrà sfruttare tutte le funzionalità dello standard superiore. Riguardo alle nostre necessità, occorre valutare: - il formato dello schermo; - la qualità dell’immagine; - le radiazioni. 66 Va inoltre effettuata la scelta fra video monocromatico ed a colori. Scelta questa ultima che non è tanto di ordine economico, in quanto i due diversi tipi di monitor non hanno prezzi molto distanti, grazie all’elevata produzione in serie. Quando la risoluzione dell’immagine nei vecchi monitor a colori era insufficiente, veniva loro preferito il monitor monocromatico per tutte le applicazioni nella quali lo sguardo doveva in continuazione leggere sullo schermo. Le lettere erano meglio delineate e gli occhi si stancavano di meno. La risoluzione degli attuali monitor a colori è superiore a quella dei vecchi monocromatici, quindi non sembra esserci alcun motivo per privarsi del colore. Tanto più se molti programmi fanno uso del colore per rendere più facile l’uso, contrassegnando con colori diversi settori diversi dello schermo, o tipologie di comandi. Il formato e il tipo di visualizzazione sono direttamente collegabili esclusivamente al tipo di lavoro che intendiamo svolgere. L’elaborazione di fotografie a colori richiede uno schermo multisync non interlacciato da 21 pollici, la lavorazione di una rivista può essere svolta con un monitor SVGA/UVGA da 15 o 16 pollici, mentre la videoscrittura o il data entry si svolgono regolarmente con i monitor VGA da 13 o 14 pollici. Nel caso che il computer serva per elaborazioni multimediali, è essenziale un monitor multisync interlacciato. Risoluzione a parte, la qualità dell’immagine è formata anche dal bilanciamento e dalla saturazione dei colori. La costruzione interna di un monitor può essere molto diversa da modello a modello, a seconda della qualità del tubo catodico e di tutti gli altri elementi elettrici ed elettronici. Una immagine anche solo leggermente storta o fuori fuoco può provocare consistenti danni alla vista. Se è fastidiosa in un televisore mentre scorrono le immagini di un film, in uno schermo che abbiamo di fronte almeno otto ore al giorno è insopportabile. I controlli presenti sul monitor sono quelli della luminosità e del contrasto. Spesso è possibile accedere ai comandi di ampiezza e centratura sia verticale che orizzontale dello schermo sul retro. Nella gran parte dei monitor è anche presente un pulsante per eliminare l’elettricità statica che si forma sulla superficie interna dello schermo e che altera i colori. Il piedistallo girevole è un accessorio utile, se non indispensabile. Permette di orientale lo schermo all’altezza del nostro sguardo, senza costringerci a posizione scomode, ed in direzione più favorevole rispetto ai riflessi dell’illuminazione ambientale. Una illuminazione errata o un cattivo posizionamento del computer rispetto alle fonti di luce può causare gravi danni alla vista dell’utilizzatore e comunque un calo di produttività. Lo schermo del monitor è in vetro e, come tutti i vetri, anche se trattato e pubblicizzato come antiriflesso, fa da specchio. Le luci, le finestre, le pareti vi si riflettono e rendono confusa l’immagine sullo schermo. Gli occhi si sforzano di distinguere i particolari e, oltre ad una stanchezza con dolore ai bulbi oculari e mal di testa, può derivarne un calo dell’acutezza visiva. In un ufficio dove l’utilizzo dei computer è continuo e generalizzato, l’illuminazione dovrebbe essere diffusa ed omogenea, evitando fonti di luce dirette sulla scrivania e preferendo luci che, dalle pareti, illuminano il soffitto. La luce pervade l’ambiente diffusa dal soffitto. Il monitor non deve essere rivolto verso una finestra, cui l’utilizzatore rivolge le spalle, in quanto la sua luce si rifletterebbe sullo schermo. Né l’utilizzatore, lavorando al computer, deve avere una finestra direttamente dietro il monitor, perché si accentuerebbe troppo il contrasto fra le fronti luminose, finestra e monitor, e l’occhio dovrebbe fare un continuo sforzo per calibrare l’apertura dell’iride. In caso di problemi derivati da riflessi sullo schermo, è consigliabile installare uno schermo aggiuntivo antiriflesso. I riflessi non si potranno mai eliminare del tutto, ma un buono schermo aggiuntivo li può drasticamente ridurre. 67 Le radiazioni Il problema delle razioni emesse dai tubi a raggi catodici è stato molto discusso ed esaminato sotto tutti i punti di vista. Mentre in molti paesi, Italia compresa, esistono normative che proibiscono esplicitamente la permanenza davanti ad un video per molte ore consecutivamente, le opinioni e gli studi presentati dai fabbricanti sono di tutt’altro avviso. La tecnologia usata nei monitor è la stessa utilizzata per i televisori. Un sottile raggio luminoso colpisce, con maggiore o minore intensità, una serie di particelle di fosfori che, immagazzinando la luce, la restituiscono lentamente. Nei monitor a colori i raggi sono tre e i fosfori sono di tre colori: giallo, blu e rosso. I fosfori non rilasciano solo radiazioni luminose, ma anche altre radiazioni non visibili. Secondo definitive prove di laboratorio è accertato che le radiazioni emesse dai monitor CRT danneggiano le cellule umane. E’ vero, replicano i produttori, ma la moderna tecnologia sta producendo monitor i cui fosfori emettono una quantità di radiazioni così bassa, ed a così piccola intensità, che bastano pochi centimetri d’aria a neutralizzarli. Queste radiazioni sono così deboli che l’aria è per loro come un muro d’acciaio e, al confronto di un monitor, un televisore a colori da 26 pollici è come una centrale nucleare rispetto ad un mulino a vento. I monitor emettono anche radiazioni magnetiche. Per guidare il raggio di elettroni nel tubo catodico, in modo da fargli comporre l’immagine sullo schermo, vengono usati dei potenti magneti. Anche la forza magnetica ha provato la propria dannosità per le cellule umane, senza alcuna ombra di dubbio. Intervengono di nuovo i produttori. I magneti sono sul retro del tubo catodico, dalla parte opposta dell’utilizzatore del computer. La direzione delle loro forze magnetiche è laterale. Ne consegue che le parti più pericolose di un monitor sono il retro ed i due lati, non quella frontale. Chi corre i pericoli maggiori sono i colleghi di lavoro, coloro che siedono con la testa vicino alla parte retrostante o laterale del monitor, non chi lavora al computer. Queste radiazioni sono diminuite nei nuovi modelli, ma sono ancora consistenti, tanto da sconsigliare una posizione di lavoro vicina al retro di un computer. Il rimedio per le radiazioni può essere un buono schermo protettivo, che non sia semplicemente un vetro antiriflesso, ma che contenga particelle di piombo, e non lavorare mai con il viso troppo vicino al video. Alcuni monitor vengono certificati “a bassa emissione di radiazioni” da laboratori privati, ma in realtà non esiste nessun organismo sanitario ufficiale che ne possa effettuare una omologazione e che possa dichiararne l’innocuità. Non esistono misure di radiazione considerate “soglie minime”, né leggi in materia, e d’altra parte la letteratura medica al riguardo delle effettive conseguenze della esposizione a monitor CRT è contraddittoria. I monitor LCD ed a plasma sono totalmente esenti da radiazioni. Sono stati realizzati monitor per personal desktop con queste tecnologie, tuttavia con scarsi risultati a causa della cattiva risoluzione e della pessima leggibilità. Schermi touch screen Per talune applicazioni, come nei computer disponibili al pubblico per la consultazione presso uffici pubblici od in occasione di fiere, è opportuno utilizzare monitor sensibili al contatto, chiamati touch screen. Sullo schermo appaiono le diverse possibilità di consultazione a disposizione, e l’utente tocca con un dito quella che intende richiedere. In realtà la superficie dello schermo non è assolutamente sensibile al tocco del dito, anzi è di normalissimo vetro. Lo schermo è però attraversato da sottili raggi infrarossi, simili a quelli del cancelli automatici. Piccole cellule, nascoste nel un bordo interno della cornice del monitor, rilevano i raggi e la loro eventuale interruzione a causa del dito poggiato sullo schermo. Il programma calcola la posizione del dito grazie alle coordinate fornite dai raggi interrotti. 68 E’ stato tentato di introdurre questo tipo di schermo anche nel normale lavoro di ufficio, ma il lavoro ne risulta eccessivamente rallentato. Oltre a monitor prodotti appositamente, è possibile adattare uno schermo normale a touch screen, aggiungendo un adattatore che si monta sulla cornice. Data show La lavagna luminosa è uno strumento molto utilizzato nell’esecuzione di corsi, conferenze, congressi. Uno speciale schermo a tecnologia LCD viene collegato fra scheda grafica e monitor e permette, posto sul ripiano della lavagna luminosa, di proiettare le stesse immagini presenti sul monitor del computer. Questo schermo, chiamato data show, è pressoché identico a quelli utilizzati nei computer portatili, ma ha un fondo di vetro anziché di plastica. La luce della lavagna luminosa lo attraversa come se fosse un ordinario lucido di plastica trasparente. Con un data show è possibile produrre delle schermate con scritte e grafici che, mostrate l’una dopo l’altra, vanno a sostituire sia i lucidi didattici che le diapositive esplicative. I vantaggi nell’utilizzarlo al posto dei metodi tradizionali sono la possibilità di effettuare modifiche alle schermate anche all’ultimo momento, di modificarne la successione e di poter richiamare ciascuna schermata in qualsiasi momento durante la proiezione anche più volte. Videoregistratore Tramite uno speciale modello di videoregistratore, collegabile alla porta seriale e dotato di un microprocessore che possa scambiare comandi con il computer, è possibile effettuare una registrazione su nastro. Si possono preparare serie di schermate fisse, oppure in movimento. Il nastro può essere usato per una dimostrazione a distanza o per includere spiegazioni su un prodotto 69 La tastiera Lo scopo della tastiera è duplice. Da una parte serve per introdurre dati nel computer, dall'altro per impartire i comandi per l'esecuzione delle elaborazioni. La corrispondenza fra tastiera e schermo viene evidenziata dal cursore. Si tratta di un segno di sottolineatura, di un blocchetto colorato o di una barretta verticale, che ci indica la posizione nella quale appariranno i dati corrispondenti ai tasti che premiamo. Ogni volta che premiamo il tasto di una lettera, questa appare sullo schermo al posto del cursore, e questo si sposta sulla destra di una posizione. Se stiamo lavorando con un programma di videoscrittura, il cursore sarà libro di muoversi per tutto lo schermo, mentre se stiamo immettendo informazioni in una base di dati il cursore potrà solo muoversi all'interno dei campi prestabiliti ed andare da un campo all'altro. Il cursore, oltre che in seguito alla scrittura di un carattere, si muove anche per la pressione di uno dei tasti cursore. Questi si trovano sulla tastiera, come vedremo. Caratteristiche tecniche Tasti alfanumerici La parte principale della tastiera è dedicata ai tasti alfanumerici come quelli della macchina da scrivere, anche se ordinati in maniera diversa. Ciò consente di introdurre qualsiasi tipo di dati: lettere, cifre, segni di punteggiatura, segni matematici, caratteri come lettere accentate o parentesi. Insieme ai tasti ordinari, sono presenti due tasti modificatori che, premuti insieme ad altri tasti, assumono funzioni particolari. Questi tasti sono contrassegnati come: - Ctrl o Control - Alt Le diverse combinazioni di tasti, ed il loro eventuale significato, sono determinate dal software che è in esecuzione in quel momento. Alcune funzioni sono abbastanza frequenti, come quella Alt e lettera "X" che provoca l'uscita dal programma, e Ctrl e lettera "C" per interrompere l'esecuzione di un comando. Alcuni tasti di lettere, se premuti insieme al tasto Alt, producono segni grafici particolari. In ogni caso, il tasto modificatore e la lettera abbinata vanno premuti contemporaneamente. La particolare combinazione di tasti Ctrl Alt Del premuti contemporaneamente, provoca il riavvio del computer, con la stessa conseguenza di spengerlo e riaccenderlo. Qualunque programma o lavoro sia in quel momento in esecuzione o presente in memoria, viene cancellato. Nella parte alfanumerica della tastiera troviamo anche: - Backspace, per cancellare il carattere che si trova alla sinistra del cursore; - Return, per terminare il paragrafo in scrittura e mandare il cursore all'inizio della riga nuova. Nei programmi di gestione delle basi di dati questo tasto conclude l'elaborazione della schermata; - Tab, che sposta il cursore di un tabulatore. Nei programmi di gestione delle basi di dati questo tasto fa passare il cursore al campo successivo; - Shift, se premuto insieme ad un tasto alfanumerico, provoca la scrittura della lettera maiuscola, del numero e del carattere speciale rappresentato nella parte superiore del tasto; - Caps Lock, rende fissa la, funzione di Shift, finché non viene nuovamente premuto. 70 Tastierino numerico La parte destra della tastiera è invece dedicata ai tasti numerici, in similitudine delle calcolatrici da tavolo. I tasti numerici sono raggruppati per consentire l'introduzione rapida delle cifre. Accanto si trovano i tasti degli operatori di divisione, moltiplicazione, sommatoria, sottrazione ed uguale. Sia i tasti numerici che quelli degli operatori sono ripetuti, in quanto si trovano sia nel tastierino che nell'insieme dei tasti ordinari. Spesso il tastierino numerico ha un doppio uso. Il tasto in alto a sinistra, contrassegnato "Num Lock" fa alternare le due funzioni. Se "Num Lock" è attivo, e ciò è segnalato da una spia luminosa che si accende, il tastierino ha la sua funzione numerica. Se "Num Lock" è sbloccato, e la spia spenta, i tasti assumono funzioni speciali come: - PgUp, che torna indietro nella visualizzazione di una schermata; - PgDown, che avanza nella visualizzazione di una schermata; - Home, che pone il cursore all'angolo in alto a sinistra dello schermo; - End, che pone il cursore all'angolo in basso a destra dello schermo; - Ins, per inserire uno spazio vuoto fra due caratteri nei programmi di videoscrittura; - Del, per cancellare il carattere su cui si trova il cursore nei programmi di videoscrittura; - quattro tasti cursore, contrassegnati da una freccia. Premendoli, il cursore si sposta sullo schermo di una posizione con la direzione corrispondente alla freccia. Fra la tastiera alfanumerica ed il tastierino numerico, si trovano altri tasti speciali: - PgUp; - PgDown; - Home; - End; - quattro tasti cursore; duplicati rispetto a quelli presenti in seconda funzione sul tastierino numerico. Tasti funzione Nella parte superiore della tastiera troviamo: - Esc, che permette di rinunciare ad un comando impartito; - 12 tasti funzione, contrassegnati da "F1" a "F12". Questi tasti assumono diversi significati a seconda del programma che è in esecuzione; - PrtSc, che invia alla stampante una copia dell'immagine attuale dello schermo; - Scroll Lock, per bloccare lo scorrimento di informazioni sullo schermo; - Pause, interrompere l'esecuzione di un comando. I tasti funzione sono molto importanti, perché spesso riassumono intere sequenze di tasti, permettendoci di lavorare con maggiore velocità e speditezza. Spesso il programma in esecuzione visualizza nella parte bassa dello schermo i significati dei vari tasti abilitati. In alcune tastiere di vecchio tipo, chiamate tastiere "standard", ma che in realtà non sono più prodotte, i tasti funzione sono situati in due colonne sulla sinistra della tastiera. Questo tipo di tastiere avevano solamente 83 tasti, mentre le tastiere attualmente in commercio, chiamate tastiere "estese" hanno 101 tasti. 71 Considerazioni finali La nazionalizzazione La maggior parte delle tastiere vengono prodotte per il mercato americano, ma non esistendo in inglese le lettere accentate, non vi sono tasti per produrle sullo schermo. A parte la lingua inglese, tutti i linguaggi esistenti utilizzano lettere accentate e caratteri speciali, ed ogni alfabeto ne possiede di diverse. Le lingue nordiche, ad esempio, hanno una lettera "O" sbarrata ed una lettera formata da "A" ed "E" unite. Gli spagnoli hanno il punto interrogativo e quello esclamativo capovolti, oltre alla "n" con la cediglia. Le lingue slave usano una "I" ed una "L" sbarrate. Esistono poi lettere maiuscole sovrastate da accenti, due punti od un pallino, e così anche molte vocali minuscole. L'elenco può essere molto lungo, e per ogni lingua deve esistere una tastiera particolare che ne rappresenti, sui tasti, i segni speciali. Solo così i computer possono essere utilizzati in tutto il mondo. Considerando i paesi occidentali ed europei, sono state prodotte venti tipi di tastiere con impostazioni diverse. Per non parlare delle tastiere per i paesi arabi od orientali, nei quali l'alfabeto è totalmente diverso. La nazionalizzazione è un aspetto molto importante, perché avere un computer con una tastiera non italiana vuol dire non poter scrivere correttamente molte parole. Tutte le lettere accentate dovranno essere digitate senza, facendole seguire da un accento. Se talune volte ciò è tollerabile, nella gran parte dei casi non lo è. Tanto più se un computer con la tastiera italiana ha un costo uguale ad un altro con la tastiera americana. La nazionalizzazione della tastiera deve essere comunque indicata con un apposito comando al sistema operativo, altrimenti nessun programma la potrebbe utilizzare ed i caratteri che appaiono sullo schermo sarebbero differenti da quelli che contrassegnano i tasti. Qualità della tastiera Lavorando molte ore di seguito ad un computer, digitando in continuazione, è facile sentire le dita indolenzite o l'articolazione del polso. Sono due situazioni patologiche derivate dall'uso di una tastiera inadatta nella pressione sui tasti, la seconda nell'inclinazione della tastiera. Non è possibile definire uno standard oggettivo per giudicare una "buona" tastiera e il criterio di scelta è una prova almeno di qualche minuto di digitazione. I tasti non devo essere né troppo duri da premere, né troppo cedevoli. Nel primo caso si ha un affaticamento eccessivo a causa dello sforzo dei muscoli delle dita, nel secondo l'arrivo troppo violento a fine corsa dei tasti provoca una serie di microtraumi che si ripercuotono sui legamenti. La posizione ideale per scrivere vede i polsi appoggiati sul davanti della tastiera e le dita che si protendono sui tasti. Se la tastiera è troppo o troppo poco inclinata, il polso dovrà muoversi troppo e le dita troveranno difficoltà a raggiungere i tasti. Poiché la giusta inclinazione è determinata dalla lunghezza delle dita, la tastiera da acquistare deve avere assolutamente l'inclinazione regolabile di modo che si possa adattare alle nostre mani. Una tastiera troppo bassa costringe i polsi ad alzarsi dal ripiano. La battitura con le mani che si muovono sulla tastiera, senza appoggiarsi al tavolo, provoca un indolenzimento sia della mano che dei muscoli del braccio. Il problema è rappresentato dal fatto che ogni computer viene venduto con la sua tastiera, senza possibilità di sostituzione gratuita. Dovendo lavorare molto al computer, la tastiera ha una grossa importanza. Fra due personal simili, a parità di costo e di prestazioni, la "piacevolezza" del tocco della tastiera è senz'altro un motivo valido di selezione, molto più dell'aspetto estetico. 72 Il mouse Il mouse è uno strumento essenziale di lavoro con il personal computer. Il suo uso è stato introdotto solamente negli ultimi anni, con l’avvento dei sistemi operativi di tipo grafico nei quali i comandi, che prima venivano impartiti al computer tramite la digitazione sulla tastiera, possono essere inviati tramite il movimento del mouse e la pressione di un suo tasto. Nei personal venduti fino a qualche anno fa, infatti, il mouse non era compreso nella configurazione base e doveva essere acquistato separatamente. Inoltre solamente una piccola parte del software allora disponibile ne prevedeva l’uso. La gran parte dei programmi che funzionavano sotto il sistema operativo DOS riconoscevano solamente i comandi pervenuti dalla tastiera ed ignoravano i comandi del mouse. Ancor oggi, se mandiamo in esecuzione un programma DOS, anche se all’interno di un sistema operativo grafico, il mouse potrebbe non essere riconosciuto o comunque ha un uso molto limitato. Il mouse rientra nella configurazione base dei personal venduti attualmente. Qualora si tratti di personal portatili, viene sostituito da una track ball o da una touch pad. Il mouse ha nella parte superiore due pulsanti: il pulsante sinistro e quello destro. Alcuni modelli hanno tre pulsanti, nel qual caso il mouse viene fornito con un programma (installato nel “pannello di controllo” del sistema operativo) che consente di attribuire al pulsante centrale particolari operazioni o insiemi di comandi. Il mouse utilizzato dai computer Apple Macintosh ha, invece, un solo pulsante. Nella parte inferiore del mouse è presente un foro dal quale sporge lievemente una sfera di plastica che trasmette al computer gli spostamenti effettuati trascinando il mouse sulla nostra scrivania (preferibilmente utilizzando un apposito “tappetino per mouse” che ne migliora l’attrito e ne conserva la pulizia). Spostando il mouse, si sposta sullo schermo una freccia, chiamata “puntatore”. Tramite la combinazione dei movimenti del puntatore (e quindi del mouse) e delle pressioni sui pulsanti sinistro e destro, è possibile trasmettere al sistema operativo qualsiasi comando, come l’eliminazione, la copia o lo spostamento di un file. Il mouse è essenziale per lavorare con le ultime versioni di tutti i programmi. Anche se in molti di questi è stata conservata la possibilità di impartire i comandi dalla tastiera, l’uso del mouse consente comunque una maggiore facilità e velocità di lavoro. Chi era abituato ad usare le combinazioni di tasti può continuare ad usarli, tuttavia in certe parti delle nuove versioni, soprattutto quelle che riguardano l’aspetto grafico (spostamenti, dimensionamenti, colori...) il mouse è indispensabile. Le operazioni svolte con il mouse sono di quattro tipi: • spostamento: si sposta il puntatore da una zona all’altra dello schermo (il mouse deve “strisciare” sul tavolo, senza sollevarsi; qualora si incontri un ostacolo, si può sollevare il mouse, portarlo in una zona del tavolo non ingombra e riprendere lo spostamento del puntatore) senza premere alcun pulsante. Se ci si sposta in una zona “attiva” dello schermo, il puntatore cambia forma (da freccia a croce, a doppia freccia, a mano, a dito...) per indicare la possibilità di effettuare un’operazione tramite il trascinamento o il click; • trascinamento: si sposta il puntatore da una zona all’altra dello schermo tenendo premuto uno dei pulsanti. Il trascinamento termina quando rilasciamo il pulsante premuto, anche se continua lo spostamento del puntatore. Se iniziamo questa operazione su un “oggetto”, come l’icona di un file, trasciniamo con il puntatore anche quell’oggetto, andandolo a depositare lì dove terminiamo il trascinamento; • click: tenendo fermo il mouse, premiamo e subito rilasciamo uno dei pulsanti del mouse. Clickare con il tasto sinistro o con quello destro su un oggetto (ad esempio l’icona di un file) ha un diverso significato: con il tasto sinistro si effettua la selezione di quell’oggetto (cioè, su di esso si applicherà il prossimo comando), clickando con il destro (con i programmi che ne accettano l’uso) oltre a selezionare l’oggetto si provoca la comparsa sullo schermo di un menu con i comandi applicabili in quel momento a quell’oggetto. Quando è necessario selezionare un comando da un menu, attivare un’opzione o azionare un “pulsante” sullo schermo, è necessario clickare con il pulsante sinistro. Più avanti in questo libro, parlando dei sistemi operativi o del software, indicheremo “click” (per l’uso del tasto sinistro) e “click/destro” a seconda dell’operazione da svolgere. 73 L’effetto del click singolo può essere modificato se si preme, contemporaneamente, uno dei “tasti modificatori” della tastiera, come “ctrl” o “alt”: in questo caso indicheremo “click+ctrl”; • doppio click: tenendo fermo il mouse, premiamo due volte, in rapida successione, il pulsante sinistro del mouse. E’ necessario che il mouse non si sposti fra il primo e il secondo click e che i due click siano molto rapidi, altrimenti il computer li interpreterà come due click singoli. L’utente inesperto, di solito, si trova a disagio lavorando con il mouse nei primi giorni di “contatto” con il personal. Gli errori più comuni sono quelli di spostare invece di trascinare, o viceversa, di fare doppio click troppo lentamente, oppure di fare doppio click con un impeto tale da spostare il mouse fra il primo ed il secondo click. La difficoltà principale, comunque, è quella di “prendere la mira”. Spesso è necessario clickare su oggetti molto piccoli, come linee o bordi, o caratteri di testo minuscoli. Non appena “fatta la mano” all’uso del mouse, si lavora comunque con maggiore facilità e con fasi d’apprendimento ridotte. Mouse senza filo Grazie ai raggi infrarossi, simili a quelli utilizzati dai telecomandi televisivi, può trasmettere al computer gli impulsi di movimento senza essere collegato con un cavo. Sembrerebbe una soluzione molto pratica, ma ha gli stessi inconvenienti dei telecomandi: è soggetto all’esaurimento delle batterie che usa per alimentarsi, ed ha un raggio di azione delimitato. Mentre i mouse normali vengono alimentati attraverso lo stesso cavo in cui passano gli impulsi di movimento, quelli ad infrarossi usano batterie interne. La parte antistante del mouse ha le cellule infrarosse e queste devono sempre essere puntate verso i sensori collocati sul frontale del computer (se il mouse ad infrarossi è di serie) o sull’apposito ricevitore. Basta spostare il mouse fuori dell’arco d’azione dei sensori o frapporre un oggetto, un libro, una penna, fra questo ed i sensori che la sua azione si interrompe. Se stiamo effettuando un trascinamento e, durante lo spostamento del mouse, un ostacolo si frappone ai raggi infrarossi è come se avessimo rilasciato il pulsante del mouse. La track ball Una alternativa al mouse è costituita dalla track ball. Si tratta di un dispositivo che utilizza lo stesso meccanismo del mouse, ma alla rovescia. Una sfera di plastica fuoriesce da un contenitore: muovendo questa sfera, si impartisce il movimento al puntatore sullo schermo. Il vantaggio è che la track ball resta ferma sul tavolo, mentre il mouse richiede sempre un certo spazio sulla scrivania per poterlo muovere. Le track ball sono state adottate nell’uso con i computer portatili. Un lato negativo del mouse, proprio per questa sua richiesta di spazio su cui spostarsi, è l’impossibilità di utilizzo in situazioni precarie, come nell’ufficio di un cliente, in auto, in treno, in una sala d’aspetto aeroportuale. Dalle dimensioni molto più contenute rispetto alla versione da tavolo, è incorporata direttamente nel computer portatile, al di sopra o al di sotto della tastiera, perfettamente utilizzabile anche negli ambienti e nelle situazioni più disagevoli. Presenta due tasti che hanno le stesse funzioni dei pulsanti del mouse. La touch pad I nuovi modelli di computer portatili, invece della track ball, hanno una touch pad per svolgere le funzioni del mouse. Si tratta di una piccola superficie rettangolare sensibile alla pressione. Spostando il dito su questa superficie, dei sensori raccolgono i cambiamenti di pressione e li trasmettono al computer, facendo spostare il puntatore sullo schermo. Anche in questo caso sono presenti due tasti che hanno le stesse funzioni dei pulsanti del mouse. E’ leggermente più difficile da usare rispetto alla track ball, almeno fino a quando non se ne prende l’abitudine. Ha però un aspetto positivo: non raccoglie tutto quello sporco che, entrando con la rotazione della pallina, va a finire sui sensori o nel meccanismo di track ball e mouse provocando disturbi di funzionamento. 74 La tavoletta grafica Il mouse non è lo strumento ideale per disegnare. Molto più precisa ed efficace è la tavoletta grafica. Sulla sua superficie, sensibile alla pressione, si può disegnare con un apposito stilo. Il disegno può essere a mano libera oppure, utilizzando il tracciamento automatico di linee rette o curve, tecnico. Sulla tavoletta, intorno allo spazio destinato al disegno, sono spesso disponibili una vasta gamma di comandi di elaborazione del disegno stesso, come opzioni per il colore, l’ingrandimento ed altri effetti grafici che vengano resi disponibili dal programma. Le tavolette grafiche possono essere usate esclusivamente con i programmi che le prevedono, in genere software di disegno industriale o di architettura. Il joystick E’ utilizzato esclusivamente per i giochi, assumendo ad esempio la funzione di guida di un aereo o di un carrarmato. Non ha alcuna applicazione di lavoro e nei giochi stessi ormai è spesso sostituito dal mouse. Esistono anche delle pad speciali, dedicate ai giochi, a somiglianza di quelle proprie delle console specializzate di videogiochi. Nei computer Apple Macintosh non è possibile collegare un joystick 75 Le stampanti Nonostante si dica che, con l’uso del computer, l’ufficio del futuro sarà un ufficio senza carta, la stampante è il complemento ideale ed essenziale di ogni computer. Nel tempo ha avuto numerosi e notevoli cambiamenti tecnologici, che ne hanno agevolato la diffusione e l’uso. Dopotutto è ancora più facile stampare su carta una lettera che registrarla su un CD-ROM, ed è più rapido trovarla in una cartellina di un raccoglitore che in un archivio digitalizzato. Ed è ancora più economico. Le stampanti di alcuni anni fa erano ingombranti, rumorosissime e lente. Ne esistevano solo due tipi: a caratteri (con una testina identica a quelle delle macchine da scrivere elettroniche) o a matrice di punti. Con le prime, molto più costose, si potevano produrre lettere e documenti di buona qualità (identiche a quelle prodotte da una macchina da scrivere, appunto), mentre le seconde servivano a produrre tabulati su moduli a carta continua, spesso dalla lettura abbastanza difficile. Evoluzione delle stampanti La prima evoluzione si ebbe con l’introduzione di stampanti a matrice di punti capaci di stampare con la stessa qualità delle stampanti a testina rotante. Le stampanti a matrice di punti utilizzano una testina ad aghi. Ogni carattere che deve essere scritto sul foglio, viene riprodotto da un insieme di punti. Dalla testina fuoriescono, ad alta velocità, alcuni aghi che, battendo sulla carta attraverso il nastro inchiostrato, vi lasciano impressa la matrice di punti che forma il carattere. Le prime stampanti di questo tipo avevano una testina con nove aghi messi in colonna e la matrice veniva composta da quattro colonne. Ciascun carattere poteva essere disegnato, quindi un massimo di 36 punti, con una scarsa leggibilità soprattutto di lettere più complesse, come la “g” minuscola. Con l’introduzione di testine a 24 aghi, la qualità di stampa crebbe fino ad arrivare alla stessa qualità delle macchine da scrivere. La seconda evoluzione, ancora più importante, avvenne quando vennero introdotte le stampanti laser. Questo tipo di stampante, che ereditava il meccanismo di stampa da quello delle fotocopiatici, ha reso possibile produrre alla qualità della stampa tipografica ed ha risolto il problema di stampare piccole quantità di circolari, depliant e notiziari. Dopo alcuni tentativi con tecnologie diverse, come le stampanti a sublimazione e quelle a cera, si è arrivati alla terza evoluzione con le stampanti a getto d’inchiostro. Queste hanno unito l’economicità alla qualità. Utilizzando un inchiostro liquido che viene “sparato” in piccolissime gocce sul foglio di carta, riescono a raggiungere la qualità delle stampanti laser con dimensioni e costi molto inferiore. Hanno anche consentito di produrre stampe a colori, negli ultimi modelli, di qualità paragonabile alle tradizionali stampe fotografiche. Caratteristiche tecniche Sono molte le caratteristiche tecniche che differenziano le stampanti, anche all’interno dello stesso metodo di stampa, e che vanno analizzate per identificare la stampante più adatta ai nostri bisogni: alimentazione della carta: a foglio singolo od a modulo continuo. La stampa a foglio singolo permette di cambiare rapidamente tipo di carta, di stampare a volte anche su cartoncino e buste, carta intestata e prestampata, lucidi per proiezioni. La stampa a modulo continuo (presente quasi solamente sulle stampanti a matrice di punti) è più indicata, invece, per la produzione di copie supplementari, stampate contemporaneamente grazie a moduli sovrapposti di carta chimica; formato della carta: può essere indicata nel numero di colonne stampabili (80 o 132), in centimetri (da un minimo di 21 cm di larghezza in su), o in formati standard (formato A3, A4, A5, B5...). Alcune stampanti possono produrre striscioni, manifesti o grossi fogli per il disegno tecnico; velocità di stampa: viene calcolata in caratteri per secondo (sigla: cps) oppure in pagine per minuto (sigla: ppm). Può variare, nella stessa stampante, a seconda del formato della carta o della risoluzione scelta; 76 risoluzione: tranne le stampanti a margherita, tutte le altre formano i caratteri e le immagini sulla carta imprimendovi dei punti. Maggiore è il numero dei punti e maggiore la loro vicinanza, più leggibile è lo stampato. La risoluzione viene espressa nella quantità di punti per pollice, espressa anche dalla sigla dpi, dot per inch. Nella stessa stampante è possibile spesso scegliere di stampare a risoluzioni diverse; affidabilità: è il tempo medio prevedibile fra due guasti, secondo le dichiarazioni del produttore (sigla: MTBF); durata della testina: espressa dalla quantità di pagine (o di caratteri) stampabili prima di dover sostituire la testina. Nei modelli più recenti il produttore dichiara la testina come permanente, poiché la sua vita quivale o supera quella della stessa stampante. Nelle stampanti laser non esiste testina, nel qual caso di tratta della quantità di copie dopo le quali è necessario sostituire il tamburo di stampa (in molte stampa laser, comunque, il tamburo è compreso nella stessa cartuccia che contiene il toner e quindi, cambiando il toner si cambia anche il tamburo); durata del nastro o della cartuccia: esprime la quantità di caratteri o di pagine che è possibile stampare prima di dover cambiara il nastro, la cartuccia di inchiostro o il toner; interfaccia: determina la possibilità di collegamento (in rete o ad un singolo personal, PC o Macintosh); emulazione e driver: riguarda la compatibilità con i diversi sistemi operativi e le diverse versione degli stessi. Il driver, ad esempio, può permettere anche prestazioni avanzate, come la stampa in negativo, la stampa rovesciata, la stampa ridotta o ingrandita, la riproduzione dei grigi fotografici, la stampa in grigio di un documento a colori, la stampa di un solo colore per volta (separazione dei colori); memoria di buffer: maggiore è la RAM presente nella stampante (a volte espandibile tramite SIMM) e maggiore è la quantità di dati che la stampante può ricevere ed immagazzinare nel buffer in attesa di stamparli. Non influenza la velocità di stampa (che è un fattore puramente meccanico) quanto la velocità con la quale la stampante “libera” il computer dalle istruzioni di stampa. Il personal può inviare una, due o più pagine alla stampante e quindi tornare ad essere disponibile per l’utente, mentre la stampante provvede indipendentemente alla stampa; condizioni di funzionamento: oltre ai limiti di temperatura ed umidità nei quali funziona la stampante, è importante il livello sonoro di funzionamento. In pratica è la rumorosità (espressa in decibel) della stampante, elemento molto importante quando la stampante deve funzionare in un ambiente chiuso e ristretto, come nella maggior parte dei casi. La rumorosità è molto importante nelle stampanti a matrice di punti, contenuta nelle laser e quasi irrilevante in quelle a getto d’inchiostro; certificazioni: riguarda la conformità dell’apparecchiatura alle norme sulla sicurezza elettrica, all’ergonomicità, al risparmio energetico e al rispetto dell’ambiente; colori: la maggior parte delle stampanti ha un solo colore, il nero. Alcuni tipi di stampanti (getto d’inchiostro, cera, sublimazione) hanno la possibilità di stampare copie a colori con un’ottima qualità. In genere si distinguono stampanti RGB a tre colori (qualità inferiore, con una resa approssimativa dei colori), CMYK a quattro colori (con resa buona o ottima, paragonabile alla stampa tipografica) od a sei colori (con una resa di tipo fotografico). Qualore sia importante la fedeltà ai colori (ad esempio per bozzetti di fotografie o di grafici da pubblicare tipograficamente) è necessario che la stampante abbia un sistema di calibrazione del colore; font: riguarda la capacità di stampare con caratteri diversi. E’ importante che la stampante possa riprodurre (eventualmente con un dispositivo opzionale), oltre ai caratteri eventualmente installati in ROM, qualsiasi altro carattere installato dal computer, ad esempio i codici a barre. 77 Stampanti a matrice di punti Sono il primo tipo di stampanti, prodotte da molti anni ma tutt’ora le preferibili quando si tratta di stampare un grande numero di dati nel più breve tempo possibile, con un costo che sia il più basso possibile. Sono anche chiamate “stampanti ad impatto”. La stampa è simile a quella della macchina da scrivere elettroniche, ma invece di avere una testina con una serie di caratteri metallici od in plastica, utilizza una serie di aghi in acciaio. Questi colpiscono la carta attraverso un nastro inchiostrato e lasciano l’impronta del carattere, una “matrice di punti”. La testina è formata da una linea verticale di aghi. Via via che la testina si muove lungo la riga, un impulso elettrico proietta fuori le punte degli aghi, che subito rientrano. Ogni punta imprime un segno sulla carta e l’insieme di questi punti forma una lettera. Il carattere formato sulla carta non è regolare e ben delineato, ed anche ad occhio nudo rivela la composizione in punti. La risoluzione del carattere migliora con l’aumentare del numero dei punti. Le stampanti normali hanno una testina con una fila di 9 aghi, mentre in quelle con prestazioni migliori gli aghi della testina sono 24. La qualità di stampa più modesta viene chiamata “draft”, mentre le testine con 24 aghi consentono anche qualità “NLQ” (Near Letter Quality) e “LQ” (Letter Quality). Una caratteristica negativa è il rumore. Il continuo battito delle punte d’acciaio può produrre un rumore fastidiosissimo. E’ importante accertarsi che il produttore abbia utilizzato materiali e tecnologie recenti nella costruzione della stampante e controllare il livello di rumorosità dichiarato, espresso in decibel (dB). Queste stampanti accettano sempre la carta a modulo continuo, mentre per i fogli singoli occorre un apposito cassetto o inseritore. Il meccanismo di alimentazione della carta può essere a trascinamento, a spinta o entrambi. L’alimentazione a spinta è preferibile, perché consente di stampare anche nelle prime righe del foglio. Di solito, con i moduli continui, il meccanismo usa i “trattori”, cioè una cinghia con dei rilievi che si inseriscono nella bande perforate ai lati dei fogli. Per i fogli singoli, invece, si usa il trascinamento “a frizione”, cioè prendendo il foglio fra due rulli che ruotano. Il percorso che la carta compie all’interno della stampante è, a volte, molto complesso. E’ necessario che questo percorso possa essere semplificato se la stampante deve essere utilizzata anche per la stampa di etichette adesive a modulo continuo che, se costrette a compiere angoli troppo stretti, si sollevano dal supporto e si incollano ai rulli della stampante. Esistono stampanti sia a 80 che a 132 colonne. Consente la produzione di copie carbone od in carta chimica autocopiante. La velocità di stampa di queste apparecchiature è la più maggiore fra tutti i tipi di stampanti, da meno di 100 (in qualità LQ) a più di 1000 caratteri al secondo (in qualita draft). Una caratteristica delle stampanti a matrice di punti è di avere un pannello di comando frontale con alcuni pulsanti che consentono di scegliere la font, la qualità e la densità di stampa, l’avanzamento o l’arretramento del foglio nella stampante riga per riga (per consentire l’esatta centratura nei moduli prestampati), l’emissione di un foglio in bianco (“form feed”), per posizionare l’inizio del foglio sulla prima riga di stampa (“top of form”) ed un pulsante (“on line”) per scollegare momentaneamente la stampante dal computer per effettuare interventi di manutenzione (cambio del nastro, inceppamento della carta...). Esistono stampanti a colori, ma il risultato è esteticamente scarso. Stampanti a caratteri Con l’uso delle margherite di caratteri o con le testine rotanti, queste stampanti ottengono un risultato esattamente uguale a quello di un foglio battuto a macchina. Si tratta però di macchine ingombranti, rumorose anche più di quelle a matrici di punti, molto più costose e lente. Ormai sono poco diffuse, e quasi totalmente assenti dal mercato dei personal. Sono sempre munite di cassetti per l’alimentazione di fogli singoli, sia a 80 che a 132 colonne. Hanno anche cassetti speciali per le buste. Spesso i cassetti sono due, abbinati, e la stampante può iniziare la stampa con un foglio dal primo cassetto e proseguire con i fogli dell’altro cassetto. Utile per l’utilizzo di carta intestata diversa per il primo foglio. Non stampa a colori. Consente la produzione di copie carbone od in carta autocopiante. Altro aspetto negativo è la presenza della testina di stampa con i caratteri già formati. Ciò non consente la stampa dei caratteri grafici e speciali presenti sulla tastiera, né quella di immagini, grafici o disegni. Inoltre la margherita deve essere nazionalizzata, perché possa 78 stampare i corretti caratteri speciali. Stampanti termiche Sono state le prime concorrenti economiche delle stampanti a matrice di punti. La testina è formata da alcune punte che non battono sulla carta, ma che la bruciano, utilizzando carta speciale, che cambia colore anche a temperature moderate. Queste stampanti non fanno alcun rumore. L’uso di carta speciale è una seria controindicazione, essendo non solo costosa, ma di facile deterioramento, lasciando lentamente sbiadire l’immagine. La risoluzione è ancora bassa. Sono molto lente: fra 17 e 24 caratteri al secondo. Accettano solo il formato A4, in carta speciale a rullo. Non è possibile la stampa a colori. Anche questo tipo di stampante non viene più prodotta ed è raro trovarne in uso. Stampanti a getto di inchiostro (ink-jet) Si tratta di un tipo che ha recentemente avuto notevoli miglioramenti, con una riduzione sensibile delle dimensioni, del prezzo e con una maggiore qualità nella stampa. Ha reso inoltre economica e molto fedele la stampa a colori. La testina passa sul foglio di carta schizzando un sottile getto di inchiostro da una fila di ugelli. Dove il getto colpisce si forma un punto, e l’insieme dei punti forma il carattere. Anche qui si tratta di una “matrice di punti” come nelle stampanti ad impatto, ma trattandosi di gocce d’inchiostro invece che di aghi di acciaio, è possibile farne molto vicini ed anche parzialmente sovrapposti. Migliorando la tecnologia, le goccie d’inchiostro sono diventate sempre più piccole e precise. Ne risultano caratteri formati da piccolissimi punti, quasi invisibili ad occhio nudo, e quindi una stampa particolarmente nitida. La risoluzione ottenuta anche dai modelli più economici è di 360 punti per pollice (dpi), per arrivare a 1440 per 720 dpi. La risoluzione e la qualità di stampa aumentano in proporzione agli ugelli presenti sulla testina. Vi sono testine a 21, 32, 48 o 64 ugelli per ogni colore o per il nero, e vi sono stampanti a due testine (sino a 128 ugelli). Il loro costo è basso, ormai sono le più economiche, al di sotto delle stampanti a matrice di punti, e ciò le rende anche le più diffuse. L’unico aspetto negativo di queste stampanti è la moderata velocità con la quale lavorano. Nei modelli economici da 3 pagine per minuto (ppm) in un colore a 1,5 ppm a colori, nei modelli più evoluti sino a 7 ppm a colori. I primi modelli, e quelli più economici, accettano solo fogli singoli, di formato A4. I modelli più evoluti accettano anche carta a modulo continuo, con trascinamento a “trattori” (cercando di rimpiazzare le stampanti a matrice di punti), e con fogli di carta di grosse dimensioni, sino a 5 metri di lunghezza per oltre mezzo metro di larghezza (cercando di rimpiazzare i plotter). Non essendoci un impatto meccanico sulla carta, ovviamente, non è possibile utilizzare moduli continui di carta chimica autocopiante per effettuare la stampa su più copie. Sono stati realizzati alcuni modelli molto compatti di stampanti a getto di inchiostro per essere abbinate ai computer portatili ed ai notebook. Le dimensioni sono eccezionalmente piccole, tali da occupare solo un terzo di una valigetta 24 ore, e senza alcun compromesso con la qualità. La riduzione della parte meccanica ha però provocato un sensibile rallentamento nella velocità: da 1 a 2 pagine al minuto. Quasi tutte le stampanti a getto d’inchiostro sono a colori. E’ importante controllare di che tipo sono le cartucce d’inchiostro. Prima di tutto, è meglio che ciascun colore sia indipendente, in modo tale che se finisce il giallo, ad esempio, si possa sostituire solamente la sua cartuccia e non l’intero caricatore. E’ comunque indispensabile che il nero abbia una cartuccia separata, in quanto è il colore che si consuma più rapidamente. Una evoluzione molto recente delle stampanti a getto d’inchiostro, è la stampante per riproduzioni fotografiche. La qualità è veramente alta e la fedeltà dei colori assoluta, tanto che è quasi impossibile distinguere ad occhio nudo una di queste stampe da una fotografia sviluppata in un laboratorio. Vengono utilizzati sei colori invece dei tradizionali quattro e due testine. La risoluzione molto alta e l’accuratezza di stampa hanno come conseguenza una lentezza notevole: una fotografia di 10 cm per 154 cm (formato standard delle fotografie commerciali) richiede 2 minuti. E’ indubbio, però, che con il procedere della tecnologia queste stampanti saranno sempre più veloci, fedeli nel colore, meno costose. Con la diffusione delle macchine fotografiche digitali (vedi cap. 2.7) e se anche queste diminuiranno di costo, queste stampanti andranno 79 a sostituire l’uso dei laboratori fotografici per la stampa delle fotografie amatoriali e turistiche. Stampanti laser La tecnologia delle stampanti laser è derivata da quella delle fotocopiatrici. Un raggio laser molto sottile colpisce un tamburo in metallo elettrofotosensibile come il selenio, modificandone la carica elettrica. Il tamburo passa quindi attraverso una sostanza in polvere, che si attacca solamente alle zone caricate elettricamente. Un rullo preme un foglio sul tamburo e la polvere si trasferisce sulla carta. Questa passa poi attraverso due rulli ad alta temperatura che fondono la polvere, facendola solidificare sulla carta. Anche in questo caso i caratteri sulla carta sono composti da piccoli punti, nelle posizioni colpite dal raggio laser. Essendo questo molto sottile, i punti sono quasi invisibili ed il risultato ottimo. Inoltre la tecnica della polvere fusa produce una stampa con un nero profondo e permanente. Queste stampanti sono molto diffuse, nonostante il loro costo sia rimasto abbastanza alto, perché producono una stampa confrontabile con quella ottenibile tipograficamente. Le aziende possono così produrre circolari, relazioni, progetti, in un numero limitato di copie, con costi accettabili e con la qualità che otterrebbero con la più costosa stampa tradizionale. Quasi tutte le stampanti laser possono essere installata in rete, ed in effetti gran parte lo sono. Con la sua buona velocità di stampa e con più cassetti di alimentazione per la carta (uno per la carta intestata, uno per la carta bianca...), una stampante laser può soddisfare le esigenze di molti personal, di un intero ufficio o di un piano. Sono le eredi naturali delle vecchie “stampanti dipartimentali” a matrice di punti usate con i mainframe. Le stampanti laser sono in genere dotate di diverse interfaccie per il collegamento con reti a diversa tipologia ed architettura, hanno una quantità di memoria RAM abbastanza consistente per il buffer (da 2 a 4 Mb, espandibile in genere fino a 64 Mb), posson stampare qualsiasi font e tipo di grafico. Alcune hanno un driver che permette la stampa di buona qualità della gamma dei grigi presenti nelle fotografie (che in genere sono riprodotte malamente dalle laser). La risoluzione delle stampanti laser più diffuse è di 300 punti per pollice, mentre i modelli più costosi arrivano a 400 ed a 600 punti per pollice. La velocità di stampa varia da 6 a 45 pagine al minuto. La maggior parte di queste stampanti accetta solamente fogli A4 e stampa in bianco e nero. Esistono pochi modelli che stampano su carta in formato A3. Sono anche stati effettuati tentativi di produrre stampanti laser a colori, ma la scarsa qualità ed il costo alto hanno lavorato a sfavore lasciando il sopravvento a quelle a getto d’inchiostro. Alcune laser possono montare un dispositivo per la stampa sul fronte e sul retro dello stesso foglio, mentre un altro dispositivo consente di collegarle a fascicolatori ed allestitori. Altre stampanti a colori La tecnologia della stampa a colori è tutt’ora in piena evoluzione, con u n ritardo di tre o quattro anni rispetto a quella in bianco e nero. E’ prevedibile un continuo miglioramento dei meccanismi di stampa e l’introduzione di nuovi tipi di stampanti. E’ in sperimentazione una stampate a colori wax-jet, che risulta la combinazione di una stampante a getto d’inchiostro e di una thermal-wax. La testina funziona come quella a getto di inchiostro, salvo che produce un getto di cera colorata fusa che si posa sulla carta. Il foglio viene quindi fatto passare fra due rulli che lo sottopongono ad una pressione fortissima per fissare la cera alla carta. Un ulteriore tipo di stampante si rifà in gran parte alla tecnologia delle stampanti laser tranne per il fatto che non è un raggio luminoso a magnetizzare la superficie del rullo metallico di stampa, bensì una fina di minuscoli led. Tuttavia la qualità, l’affidabilità e il costo contenuto delle stampanti a getto d’inchiostro, fanno ritenere che queste avranno il monopolio della stampa a colori. 80 La compatibilità Un capitolo molto delicato, parlando di stampanti, è quello della compatibilità. E’ quasi impossibile trovare una stampante che funzioni sempre con tutti i programmi. Si rischia di acquistare una stampante e di scoprire che questa non riesce a “dialogare” con il programma con il quale lavoriamo. Questo problema è piuttosto grave con i programmi di vecchia concezione, basati su DOS, con i quali non è sempre possibile né facile inserire nuove stampanti. Ogni programma ha una lista di stampanti con le quali è compatibile. Ed ogni stampante ha una serie di emulazioni e di compatibilità. E’ necessario che le caratteristiche richieste dal programma e quelle presentate dalla stampante coincidano. Lavorando con i sistemi operativi Windows ‘95/97 o Macintosh, nei quali la stampante non è gestita direttamente dal programma ma dal sistema operativo, è necessario che la stampante ne indichi la compatibilità nelle sue caratteristiche e che sia accompagnata da un dischetto con il driver opportuno, che deve essere installato nel sistema operativo. Un altro problema da tenere presente è quella dell’interfaccia. E’ necessario controllare che l’interfaccia presente sulla stampante coincida su quella presente sul computer. Altrimenti non si riuscirà nemmeno a collegare il cavo della stampante al computer. Postscript Molte fra le stampanti laser, quelle a getto d’inchiostro, quelle thermal-wax e quelle a sublimazione adottano un linguaggio di programmazione particolare, chiamato Postscript. Se la stampa viene effettuata da un programma che adotta lo stesso linguaggio, la stampa avviene ad alta qualità sia nel testo che nelle immagini. La presenza di questo linguaggio in una stampante è molto importante. E’ un suo merito se i risultati sono molto simili a quelli ottenibili con la stampa tipografica. Altrimenti i caratteri stampati avrebbero la stessa risoluzione e forma di quelli che appaiono sullo schermo, cioè deformati e spigolosi. Costi accessori Nell’acquisto di una stampante vanno considerati anche i costi accessori. I nastri, le cartucce di inchiostro, i toner... è bene documentarsi sulla durata e sul consumo di questi elementi, alcuni dei quali rappresentano un costo notevole, specialmente per la stampa a colori. Conviene accertarsi anche della durata della testina o del meccanismo di stampa. Questi elementi hanno una vita fissata in un determinato numero di passaggi. Nel costo della stampante bisogna includere anche il cambio del tamburo e del motore delle stampanti laser, o della testina nelle altre. L’efficienza, inoltre, ha i suoi costi. Mentre una stampante a matrice di punti può essere largamente produttiva anche oltre il migliaio di pagine al mese, una stampante a getto di inchiostro inizia ad essere controproducente anche dopo qualche centinaio. Al contrario, acquistare una stampante laser per produrre meno di mille fogli al mese, non costituisce un buon ammortizzamento della macchina. Lavorando in un ambiente con molti personal, occorre valutare se convenga una sola stampante laser dipartimentale di rete veloce, anche se costosa, piuttosto che molte stampanti a getto d’inchiostro, anche se economiche. Per le stampanti a colori è un discorso diverso. Si tratta più della loro necessità, piuttosto che della loro convenienza. 81 Plotter Un caso particolare di periferica di stampa è il plotter. Si tratta di una apparecchiatura particolare, che sostituisce il disegnatore tecnico. La ricerca di un plotter va abbinata alla ricerca del software da utilizzare per effettuare il disegno, sia per i noti problemi di compatibilità, sia perché le caratteristiche del plotter e quelle del programma di disegno devono coincidere (dimensioni del foglio di lavoro, colori...). Il meccanismo di stampa del plotter è costituito da un certo numero, variabile, di pennini colorati che disegnano su un foglio molto largo. Spesso il meccanismo è così complesso che si muovono sia i pennini (in orizzontale) che il foglio (avanti e indietro). Il plotter viene utilizzato nel disegno d’architettura ed in quello industriale, con risultati superiori al disegno manuale. E’ essenziale nelle modifiche dei disegni, potendo produrre un disegno del tutto nuovo e non uno corretto. Del resto il costo di un plotter è molto alto, a volte superiore a quello del computer. Gli stessi programmi di disegno sono fra i software più costosi. Il tutto ne fa uno strumento altamente professionale. 82 Scanner e fotocamere digitali Molto spesso è utile introdurre informazioni grafiche nel computer, come digitalizzare una fotografia, un grafico od un testo. Questo compito è svolto da una apparecchiatura chiamata scanner. Le foto ed i disegni ripresi dallo scanner, convertiti in dati digitali e registrati su disco, possono essere stampati, rielaborati e modificati a piacere. Esistono programmi per il ritocco fotografico e per il disegno, attraverso i quali è possibile importare l’immagine digitalizzata con lo scanner ed effettuarne tutte le modifiche necessarie. La potenza di questi programmi consente di alterare le fotografie e di produrne di completamente false, così come di inserire frammenti di queste nei disegni e viceversa. Si può tagliare un’immagine, ingrandirla o ridurla, ribaltarla, ruotarla, correggere l’esposizione, correggere la mesa a fuoco, correggere il contrasto o la luminosità, sostituire i colori o produrre particolari effetti di rilievo, sfaccettatura, vento, mosaico... Lo scanner ha largo impiego nel campo della grafica computerizzata, alla quale serve anche come modello di “ricalco” o come base per realizzare illustrazioni, marchi o logotipi. Nel campo dell’editoria, sia aziendale che commerciale, e della pubblicità, lo scanner serve per inserire direttamente le foto nei bozzetti, evitando costose e lente lavorazioni presso laboratori specializzati. Lo scanner è anche utili con un particolare tipo di applicazione, chiamato riconoscimento ottico di caratteri (OCR), che prevede l’interpretazione di normali fogli dattiloscritti ricavandone il testo scritto, così come se fosse stato digitato direttamente sul computer, con percentuali di errori minime in caso di originali di buona qualità. Questa applicazione è particolarmente utile per evitare la ribattitura di testi già esistenti stampati o dattiloscritti, che basta “passare” nello scanner. I programmi di riconoscimento ottico dei caratteri sono però molto sensibili alla qualità degli originali. Testi in fotocopia sbiadita oppure con stampa difettosa, vengono interpretati con moltissimi errori, tanti da renderne inutile l’interpretazione. Una delle ultime novità tecnologiche sono le fotocamere digitali. Queste macchine fotografiche, esternamente identiche a quelle tradizionali, effettuano direttamente la digitalizzazione dell’immagine senza bisogno del passaggio su carta fotografica, perché poi l’immagine, trasferita via cavo al computer, possa avere tutte le elaborazioni possibili nei programmi di ritocco fotografico di cui si è parlato più sopra. Gli scanner Dal punto di vista meccanico, gli scanner si possono dividere in: • scanner a ripresa in piano; • scanner a rullo; • scanner a tamburo; • scanner per pellicola; • scanner su stativo; • scanner manuali. Scanner a ripresa in piano Uno scanner a ripresa in piano è costituito, in pratica, dalla parte superiore di una fotocopiatrice. I fogli vengono poggiati su un ripiano in vetro, al di sotto del quale scorre una forte luce, uno specchio ed un obiettivo. All’inizio della ripresa il gruppo ottico, formato da luce, specchio ed obiettivo, si sposta effettuando una ripresa di tutto il foglio. Il ripiano, con il foglio, rimane fermo. A differenza della fotocopiatrice, le immagini non vengono inviate ad un rullo di stampa, ma al computer attraverso la porta seriale. Un programma trasforma i segnali in immagini digitalizzate, che vengono registrate sul disco. Questo software è il programma “pilota” dello scanner e quasi mai consente di modificare le immagini se non per la luminosità, il contrasto, il taglio della ripresa ed il bilanciamento dei colori. Molti scanner a ripresa in piano hanno la possibilità di montare uno speciale coperchio per la ripresa dei film fotografici, diapositive o negativi, che contiene una forte fonte di luce. La qualità della ripresa è inferiore a quella ottenuta con gli scanner per pellicola Alcuni hanno anche la possibilità di montare al posto del coperchio, un meccanismo di trascinamento con il quale è possibile scannerizzare una serie di fotografie o fogli singoli. 83 Questo è il tipo di scanner più diffuso. Inizialmente aveva una qualità inferiore di quelli a tamburo, adesso non ha nulla da invidiare agli scanner professionali, né in risoluzione, né in fedeltà, né in velocità. E’ possibile acquisire immagini anche da pagine di libri, oggetti piccoli come biglietti da visita, ritagli irregolari, fogli sottili (se ci sono problemi di trasparenza, cioè si intravede anche l’immagine presente sul retro del foglio scannerizzato, è meglio frapporre un foglio nero fra coperchio e foglio) e persino piccoli oggetti come orologi, penne, una mano... l’unica precauzione è quella di tenere sempre il vetro accuratamente pulito. Scanner a rullo Lo scanner a trascinamento è privo del ripiano in vetro. Le fotografie od i fogli passano attraverso un apposito inseritore e vengono trascinate sopra al gruppo di ripresa, uscendo dalla parte opposta della macchina. E’ più adatto per la scansione di fogli che di fotografie, in quanto queste, con la superficie lucide e su carta fotografica rigida, spesso scivolano e si incastrano nel meccanismo di trascinamento. Stesso discorso per fogli troppo sottili, che si inceppano o si rompono. Un altro problema di questi scanner è che non accettano ritagli di fogli od oggetti di piccole dimensioni (come biglietti da visita) e che non è possibile riprodurre immagini da libri. Sono diffusi soprattutto come scanner economico per l’acquisizione di documenti (lettere) a fogli singoli sia per l’archiviazione digitale che per l’OCR. Sono più economici degli scanner a ripresa in piano, in quanto non hanno il complesso sistema di spostamento del gruppo ottico. ALcuni modelli permettono di staccare il gruppo ottico, che così può essere utilizzato, come fosse uno scanner manuale, per leggere originali più grandi o per acquisire da pagine di libro. Scanner a tamburo Lo scanner a tamburo è composto, invece, da un gruppo ottico fisso e da un cilindro, o tamburo, sul quale si fissa la fotografia. Chiuso lo scanner, il tamburo inizia a ruotare velocemente facendo passare la fotografia sul gruppo ottico. Per la loro fedeltà, risoluzione e velocità, sono sempre stati utilizzati nei laboratori professionali di fotocromia. Sono, infatti, gli eredi dei giganteschi scanner specializzati utilizzati dai fotocromisti per le selezioni da stampa. Fra i tipi di scanner, sono i più costosi. Ormai sono stati soppiantati dagli scanner a ripresa in piano. Scanner per pellicola Lo scanner per pellicola può digitalizzare esclusivamente fotografie su diapositive o negativi fotografici, di vari formati. La luce illumina il film da un verso, mentre dalla parte opposta un obiettivo ne riprende l’immagine. Non accetta, ovviamente, supporti opachi come fogli di carta. Nonostante alcuni scanner a ripresa in piano siano dotati di un coperchio per i film, gli scanner per pellicola sono sempre indispensabili per ricavare riproduzioni di qualità. Essendo apparecchiature più precise, più complesse e meno diffuse, sono anche più costose. Scanner su stativo Lo scanner su stativo presenta un ripiano sul quale vengono poste le fotografie, fissate ad appositi rifermi per impedire che si muovano. Di lato sono presenti due o quattro forti lampade, mentre dall’alto, ad una altezza modificabile, un obiettivo riprende l’immagine. Lo scanner su stativo ha invece la possibilità di effettuare direttamente delle vere e proprie fotografie, potendo poggiare sul ripiano oggetti di qualsiasi dimensione. D’altra parte la digitalizzazione di fotografie o fogli singoli presenta difficoltà: l’originale si può spostare, si può incurvare, è soggetto al deposito di sporchi e polvere che verrebbero ripresi con la foto compromettendone l’immagine. Le macchine fotografiche digitali li hanno completamente sostituiti. Scanner manuale Lo scanner manuale ha un gruppo di ripresa molto contenuto, di larghezza limitata, in una impugnatura che è facilmente spostabile sulla fotografia, dall’alto verso il basso. Mentre si 84 trascina lo scanner sulla foto, il gruppo di ripresa passa davanti all’immagine. Lo scanner manuale è senz’altro il modello più economico. Il piccolo gruppo di ripresa, una diecina di centimetri, costringe però a passare più volte sulla stessa foto se questa ha una larghezza maggiore dello scanner. Ne conseguono alcuni problemi per “sincronizzare” le diverse porzioni dell’immagine affinché non ci si accorga che è stata scannerizzata “a pezzi”. Questo tipo di scanner ha avuto un momento di popolarità quando i prezzi degli scanner a ripresa in piano erano proibitivi, soprattutto quelli a colori. Questi apparecchi rappresentavano una alternativa “casalinga”, per chi avesse poche pretese di qualità o pochi soldi da spendere. Ades so che i prezzi si sono abbassati, il loro mercato si è ristretto. Caratteristiche tecniche degli scanner Fino a pochi anni fa, gli scanner erano lentissimi, molto costosi, capaci di riprendere solamente in bianco e nero (al massimo 256 tonalità di grigio). L’uso era complesso e, per immagini da pubblicare su giornali o riviste, era sempre meglio ricorrere ai laboratori di fotocromia. In pratica si potevano utilizzare solamente per riprendere testo o immagini grafiche semplici e monocromatiche. Gli scanner a colori erano ancora più costosi e lenti. Davano buoni risultati solamente con immagini in bianco e nero e pessimi con quelle a colori. Un uso professionale era impensabile. In pochi anni gli scanner sono diventati un’apparecchiatura dalle prestazioni prima inimmaginabili. A prezzi del tutto abbordabili. Le caratteristiche tecniche principali sono: • risoluzione ottica: è la risoluzione fisica dello scanner. In genere è di 300 punti per pollice (dpi) per uno scanner a ripresa in piano e 1200 dpi per uno scanner per pellicole; • risoluzione in output: l’immagine ripresa otticamente viene elaborata (interpolazione) dal software di ripresa e la risoluzione viene incrementata fino a 1200, 2400, 4800 dpi ed oltre; • colore: capacità di riconoscere le diverse sfumature di colore, o meglio, i diversi colori. Un buon scanner dovrebbe riconoscere 16,7 milioni di colori (sensibilità maggiore di quella dell’occhio umano) con 24 bit per pixel. Gli scanner professionali per fotolito arrivano a riconoscere oltre un miliardo di colori a 36 bit per pixel. Con immagini in bianco e nero sono sufficienti 256 livelli di grigio con 8 bit per pixel; • velocità: è espressa in millisecondi (msec) per linea; • elaborazione dell’immagine: deve essere possibile modificare il valore gamma (è la misura del contrasto che determina i mezzitoni di un’immagine), la correzione del colore a seconda del tipo di monitor su cui si visualizza l’immagine o della stampante di destinazione, la nitidezza, il contrasto e la luminosità; • interfaccia: dovrebbe essere presente sia l’interfaccia RS-232 che quella SCSI; • formato: è il formato standard dei fogli o delle pellicole che è possibile acquisire. Per i fogli, la maggioranza degli scanner è di formato A4 (21x29,7 cm), mentre alcuni scanner professionali sono più grandi ed arrivano al formato A3 (29,7x42). Per le pellicole il formato più comune è il 35 mm (24x36 mm) in striscia mentre i formati professionali devono prevedere un apposito telaietto; • area di lettura: rappresenta le dimensioni massime dell’area che è possibile acquisire, che spesso non coincide con il formato; • driver: deve essere presente un dischetto con i driver per tutti i sistemi operativi (DOS, Windows, Windows ‘95/97/98, Windows NT, Maintosh). Gli scanner migliori hanno un driver di tipo TWAIN, il che consente di effettuare l’acquisizione dell’immagine direttamente dal programma di grafica, di OCR, di DTP, di trasmissione fax, di elaborazione fotografica o di archiviazione dei documenti, senza la necessità di usare il software specializzato; • software: deve essere fornito almeno un programma specializzato di acquisizione, oltre ad eventuali programmi (in versione di prova) per l’elaborazione fotografica o l’OCR; • affidabilità: è la durata teorica dello scanner, almeno 100 mila scannerizzazioni negli scanner a ripresa in piano e almeno qualche diecina di migliaia in quelli per pellicola. 85 Consigli per l’uso degli scanner Il processo di acquisizione avviene in due tempi. Prima si effettua un’anteprima dell’immagine, a bassa risoluzione e quindi veloce. Il software specializzato o il driver TWAIN mostrano una riduzione dell’immagine, sulla quale si può intervenire per effettuare tagli dell’immagine (cioè riprese parziali, se parti dell’immagine non interessano) rettangolari o sagomati. Inoltre si può modificare il gamma, correggere il colore, modificare contrasto e luminosità. Dopo aver scelto la risoluzione desiderata e la quantità di colori (non sempre è necessario utilizzare i valori massimi) e la proporzione dell’acquisizione (riducendo o ingrandendo l’immagine), si da il via all’acquisizione vera e propria. In questo secondo passaggio, più lento, il gruppo ottico effettua la scannerizzazione dell’immagine con i parametri scelti. L’immagine digitalizzata è quindi registrata sul disco rigido oppure inserita nel programma TWAIN. Riguardo alla risoluzione, è meglio che sia la più alta possibile. Sempre parlando di risoluzione massima, perché quella reale da utilizzare durante la ripresa deve essere decisa in dipendenza dell’immagine da digitalizzare o del suo uso. Acquisendo immagini da inserire in pagine Internet, ad esempio, la risoluzione deve essere di 72 dpi. Nel caso di una fotografia, nella quale il soggetto è rappresentato da un notevole numero di colori, la risoluzione è meno importante del numero di colori o di grigi a disposizione. Anche se lo scanner ha una risoluzione massima di 1200 punti per pollice, la fotografia può essere ripresa con una risoluzione di 300 punti per pollice purché venga utilizzata l’intera gamma dei colori o dei grigi a disposizione. Nell’immagine fotografica è difficilmente distinguibile una digitalizzazione a 300 punti da una a 600 punti. L’immagine è formata da sfumature di colore, non da punti Al contrario, in un disegno al tratto nel quale siano usate poche sfumature di colore e prevalgano i segni precisi dei contorni e delle linee, il numero di colori può essere abbassato, mentre deve essere utilizzata la risoluzione massima per ottenere la massima precisione nelle linee. Questa tendenza si esaspera nella ripresa di un disegno tecnico in solo bianco e nero, nel quale il colore può essere ridotto ad uno solo. La risoluzione da usare nella ripresa deve anche essere collegata al tipo di stampa che se ne vuole trarre alla fine della elaborazione. Se l’immagine dovrà essere semplicemente visualizzata sullo schermo del monitor, la risoluzione deve essere di 72 dpi, cioé quella dei monitor. Se invece la figura deve essere stampata, è meglio che la risoluzione sia uguale a quella della stampante. E’ inutile digitalizzare a 600 punti per pollice una fotografia che sarà stampata con una risoluzione di 300 punti per pollice. Per riprendere una foto a 600 punti invece che a 300, lo scanner impiega il doppio del tempo e richiede una quantità enormemente maggiore di spazio sul disco. I programmi di ripresa ed i driver consentono di effettuare la ripresa dell’immagine effettuando contemporaneamente una riduzione od un ingrandimento della stessa. Le dimensioni dell’immagine si possono modificare in qualunque momento con i programmi di ritocco fotografico, ma registrare sul disco una foto già ridotta sin dall’inizio è un notevole risparmio di spazio. Inoltre, riducendo o, ancora peggio, ingrandendo dopo la ripresa, si rischia che l’immagine venga distorta o sfocata. All’atto dell’acquisizione, il programma di ripresa da la possibilità di registrare l’immagine secondo diversi formati grafici. A questo punto è necessario conoscere quali di questi formati sono compatibili con il programma di grafica, DTP o di ritocco che intendiamo utilizzare. I formati più utilizzati sono: TIFF per le immagini fotografiche (a meno che non debbano essere scontornate) ed EPS per le immagini grafiche, illustrazioni o fotografie da scontornare. Questi formati sono riconosciuti da tutti i software grafici, DTP o di ritocco. Le immagini da inserire su pagine Internet vanno invece registrate nei formati GIF o JPEG. 86 La fotocamere digitali Per chi lavora con le immagini, le macchine fotografiche digitali sono l’ideale complemento, o forse alternativa, agli scanner. Del tutto esternamente identiche (anche nelle dimensioni) alle normali macchine fotografiche di tipo “compatto”, all’interno non hanno un rullino di pellicola, ma una scheda di memoria RAM, una flash RAM, nella quale vengono registrate le immagini. Le fotocamere digitali sono, in genere, completamente automatiche, cioè in grado di determinare il tempo di esposizione e la messa a fuoco senza nessun intervento o taratura. L’inquadratura avviene con un mirino di tipo ottico, come quello delle macchine fotografiche compatte, non reflex. La ripresa è effettuata da un obiettivo ottico/digitale: la luce che entra attraverso la lente viene convertita in pixel da un dispositivo di tipo CCD (Charge Coupled Device). L’obiettivo è di solito ad ottica fissa, cioè non è possibile sostituirlo con un teleobiettivo o con un grandangolo, e solo raramente ha una limitata capacità di zoom. Dal mirino ottico non è possibile rivedere le fotografie scattate. Per questo scopo alcuni modelli hanno come accessorio un piccolo monitor LCD, un visore da 2 pollici o meno, agganciabile alla macchina. Con questo è possibile vedere le fotografie scattate (singolarmente o in miniatura), e cancellare quelle che eventualmente non vanno bene così da poter liberare spazio sulla flash RAM per altre immagini. Con il visore LCD montato, è anche possibile effettuare l’inquadratura ottenendo l’immagine digitale direttamente dal sensore CCD, evitando così errori di parallasse e consentendo anche riprese macro, trasformando la macchina in una reflex. La flash RAM contenuta nella fotocamera ha spazio per un numero limitato di immagini. A seconda della dotazione di serie (vi sono macchine con flash RAM di 2 o di 4 Mb), si possono acquisire da 11 a 64 fotografie ad alta risoluzione (640 x 480 pixel) e da 23 a 192 a media risoluzione (320 x 240 pixel), con 16,7 milioni di colori. Una volta esaurito lo spazio sulla scheda, è necessario cancellare le immagini per poterne scattare altre. La fotocamera deve essere collegata ad un personal computer tramite un cavo seriale RS232 (oppure RS-422 per Macintosh) per trasferire le immagini sul disco rigido, tramite un apposito programma o tramite un driver TWAIN ed un programma di elaborazione fotografica. La flash RAM, cancellata, è pronta per acquisire altre immagini. Appositi software in dotazione alla fotocamera consentono di gestire un vero archivio fotografico per catalogare le immagini cronologicamente o per soggetto. Le immagini possono essere inserite in programmi di DTP o essere modificate come le immagini acquisite dallo scanner, con tagli, modifiche di contrasto e luminosità, messa a fuoco, trucchi e montaggi fotografici. Nella gran parte delle fotocamere digitali, la memoria di serie della fotocamera può essere espansa con moduli da 2, da 4, da 6 Mb ed oltre per consentire di acquisire una maggiore quantità di immagini. I moduli di espansione sono “dedicati” e non sono intercambiabili fa i diversi modelli di fotocamera. Il visore LCD opzionale consente, oltre a rivedere ed eventualmente cancellare le fotografie “sul campo”, anche di effettuare riprese macro fino a 20 centimetri di distanza. Non è possibile scattare foto in rapida successione, in quanto la fotocamera impiega in media 6 secondi per elaborare una foto in alta risoluzione e 2 secondi per quelle in media risoluzione. Per avere dei riferimenti paragonabili alla fotografia tradizionale, l’obbiettivo è equivalente ad un 40/43 mm ottico con un diaframma da F8 a F2,8, con esposizione da 1/30 a 1/10.000 di secondo, sensibilità da 100 a 130 ASA, e con un fuoco da 60 cm all’infinito (20 cm con il visore LCD). Alcune macchine hanno uno zoom 3x. 87 I dorsi digitali Diverso discorso è quello dei dorsi digitali di cui possono essere dotate alcune macchine fotografiche professionali a dorso intercambiabile. Queste sono fotocamere molto costose, ed altrettanto costosi sono i dorsi digitali che si installano al posto del tradizionale dorso contenente la pellicola e l’otturatore. Il dorso contiene esclusivamente il sensore digitale di ripresa e la memoria flash RAM. Il mirino è nel corpo macchina, mentre gli obiettivi sono i tradizionali obiettivi ottici intercambiabili. In questo tipo di macchina “assemblata” ottico/digitale, il fotografo può scegliere sia l’obiettivo, che i parametri di esposizione, che effettuare la messa a fuoco. 88 La rete locale Il computer è uno strumento di produttività individuale, ma ben difficilmente l’informazione ha un uso esclusivamente personale. Il dirigente dell’ufficio marketing e l’impiegata dell’amministrazione svolgono delle funzioni separate, tuttavia il primo ha bisogno dei dati che la seconda introduce nel computer. Sono dati introdotti per fini fiscali ed amministrativi, ma il dirigente dell’ufficio marketing li adopera come specchio dell’andamento della società e spia per le strategie future. Le cifre vengono studiate, e quindi elaborate per dimostrare la validità od il fallimento di strategie di marketing per il futuro. I risultati devono essere esposti alla dirigenza dell’azienda, preferibilmente in una veste convincente, seria e gradevole. La riservatezza dell’argomento impone di non portare il testo della relazione in una copisteria: è l’ufficio stampa della stessa azienda che si occupa di mettere insieme i risultati dell’elaborazione, la relazione dell’ufficio marketing ed aggiungere qualche grafico esemplificativo che possa aiutare l’esposizione. All’interno dello stesso ufficio marketing, i dati che pervengono dall’amministrazione devono essere prima esaminati da qualcuno che decida quali utilizzare e come elaborarli. Ci sarà una persona che li sistema in un formato elaborabile, un’altra che effettua e controlla l’elaborazione, qualcuno che, da solo od in gruppo, stila la relazione che espone le proposte strategiche per il futuro, una persona che trasforma le proposte in cifre mentre un’altra trasforma le cifre in grafici. Ognuna di queste persone lavora con il proprio computer, molto spesso con dati che, nello stesso momento, vengono utilizzati anche da un collega. Un terzo sta aspettando il risultato per poter procedere a sua volta. Questo lavoro di gruppo non potrebbe realizzarsi, i dati ed i risultati delle elaborazioni non potrebbero essere condisivi in modo istantaneo se i computer non fossero collegati in rete. Il collegamento in rete permette: - la condivisione delle informazioni; - la condivisione di dispositivi hardware come dischi rigidi, ottici, stampanti, modem fax. Per “collegamento in rete” si intende un gruppo di computer in grado di accedere contemporaneamente allo stesso archivio di dati e con la possibilità di trasmettersi l’uno con l’altro qualsiasi tipo di documento. Non appena il lavoro di un ufficio viene automatizzato grazie all’uso di computer, è necessario prevedere subito la messa in opera di un collegamento in rete. La connessione è essenziale per il lavoro di un ufficio. Non solo permette lo scambio di informazioni fra i diversi reparti od impiegati, ma anche consente di lavorare sempre su dati corretti ed aggiornati. Con opportuni programmi che regolino lo scambio di dati, lo stesso archivio di informazioni può essere aggiornato dall’amministrazione mentre l’ufficio marketing lo sta già elaborando. L’archivio, ovviamente, deve risiedere in un disco rigido su uno dei computer collegati alla rete. La collocazione ideale delle informazioni è quella più vicina a chi le deve utilizzare o aggiornare il maggior numero delle volte. Un archivio come quello del nostro esempio dovrebbe risiedere nel disco rigido di un computer dell’amministrazione. Oltre che permetterci di condividere le informazioni, il collegamento in rete consente anche di utilizzare in molti una sola periferiche. Invece di acquistare una stampante ad impatto, dai risultati mediocri per ciascun computer, è possibile acquistare una stampante laser, dalla qualità di stampa ottima, e collegarla in rete in modo che tutti possano utilizzarla. Lo stesso può essere fatto con un juke-box di dischi ottici, con una stampante a colori o con un modem fax. Pur acquistando un unico apparecchio, ogni computer lo può usare senza nessuna necessità di spostamenti, allacciamenti volanti, turni. La connessione viene realizzata attraverso la presenza di apposite schede inserite nei computer e l’allacciamento di tutti i computer con speciali cavi. In questo modo ciascun computer diventa una postazione di lavoro della rete, pur conservando tutte le caratteristiche di indipendenza tipiche del personal. 89 Software di rete La struttura di una rete può diventare rapidamente molto complessa ed il traffico di dati arrivare a volumi altissimi. Perché tutto si svolga nel miglior modo è necessaria la presenza di un apposito programma che gestisca tutta la vita della rete. Devono essere ben determinate le identità degli utenti della rete, il numero e le caratteristiche delle postazioni di lavoro, il numero e le caratteristiche delle periferiche collegate, l’esistenza e la consistenza degli archivi condivisi. Inoltre il programma che gestisce la rete deve regolare tutto il traffico di dati, facendo si che i lavori inviati in stampa arrivino alla giusta stampante e che i dati in lettura ed in scrittura inviati fra l’una e l’altra delle postazioni non si confondano. Infine deve tener conto di una gerarchia nelle possibilità di accesso alle informazioni. Non tutto può essere letto e modificato da tutti. I dati relativi alla fatturazione devono poter essere accessibili in lettura dall’ufficio marketing, mentre possono essere modificati solo dall’ufficio amministrativo. Altri dati riservati, come le retribuzioni o la corrispondenza contenente progetti ed offerte, devono poter essere accessibili solamente alla dirigenza dell’azienda. Il programma di gestione della rete risiede in un computer apposito, adibito esclusivamente a questo scopo e per questo chiamato server. Il server della rete funziona come un maggiordomo: conosce tutti gli utenti e sa quando iniziano a lavorare e quando finiscono, conosce tutte le apparecchiature e sa quando sono in funzione, accoglie e guida a destinazione tutti i dati che devono attraversare la rete da un computer all’altro o fra un computer ed una periferica. Caratteristiche tecniche La creazione di una rete avviene con l’inserimento di una scheda all’interno di ciascun computer, con la sistemazione di un cavo che le unisca e l’installazione di un apposito programma di gestione della rete. La scelta delle schede, dei cavi e del programma è conseguente alla scelta dell’architettura scelta per la rete. L’architettura delle reti di computer è molto complessa. Le reti si dividono per: - localizzazione delle postazioni; - topologia; - metodologia; - tecnologia; - protocollo; - sistema operativo di rete. Localizzazione delle postazioni Esistono due tipi di rete. Nella prima le postazioni di lavoro si trovano tutte nelle vicinanze del server, nello stesso palazzo o comunque entro la distanza massima consentita per la connessione diretta tramite cavo, distanza che può variare a seconda del tipo di tecnologia utilizzata. Questo tipo di rete viene chiamata LAN, Local Area Network. Nella seconda le postazioni possono risiedere a qualsiasi distanza, in zone, città, nazioni o continenti diversi. La connessione non può essere messa in opera direttamente con cavi, ma viene realizzata tramite collegamenti telematici attraverso linee telefoniche ordinarie, linee dedicate o servizi telematici pubblici o privati. Questo tipo di rete viene chiamata WAN, Wide Area Network. 90 Topologia Le postazioni di lavoro appartenenti alla stessa rete possono essere collegate in diversi modi: - ad anello, quando il cavo parte dal server, si innesta in ciascuna postazione e dalla stessa riparte per la successiva o per una periferica, e così via fino a quando non ritorna allo stesso server chiudendo il cerchio; - a stella, quando dal server partono tanti cavi quante sono le postazioni o le periferiche, con tanti collegamenti singoli; - a bus, quando dal server parte un solo cavo, che si innesta in ciascuna postazione e dalla stessa riparte per la successiva o per una periferica, come nella topologia ad anello, ma non torna al server, bensì termina all’ultima postazione. Metodologia Per metodologia si intende il metodo con in quale ciascuna postazione di lavoro invia e riceve i dati. Le metodologie usate sono due: - CSMA/CD, Carrier Sense Multiple Access / Collision Detection, che sta per “Accesso multiplo con rilevamento della portante e riconoscimento delle collisioni); - token passing, cioè “passaggio di contrassegno”. La metodologia CSMA/CD La portante (carrier) è il segnale elettrico che passa sul cavo trasportando i dati. Ciascuna postazione, prima di trasmettere i suoi dati sul cavo, rileva se sul cavo è già presente una portante o meno. Se non la rileva, trasmette i dati; se la rileva si ferma per riprovare dopo una frazione di secondo. Le portanti si alternano alcuni milioni di volte ogni secondo. Potrebbe capitare che due postazioni stiano tentando di trasmettere dati allo stesso tempo, e che non rilevando alcuna portante sul cavo iniziano contemporaneamente la trasmissione. In questo caso non possono individuare l’uno la portante dell’altro, ed i dati inviati si disturbano a vicenda. Il riconoscimento delle collisioni serve, appunto, a riconoscere queste situazioni. In questo caso la postazione o la periferica destinatari della trasmissione non ricevono il dovuto flusso di dati e quindi non possono inviare, a loro volta, il segnale di “ricevuto”. La postazione originale si accorge della mancata risposta ed invia nuovamente i dati. La metodologia token passing L’accesso alla trasmissione dei dati viene concessa ad ogni postazione di lavoro secondo un turno prestabilito. Il token è un segnale di contrassegno che viene inviato dal server alla prima postazione della rete. Se questa postazione ha necessità di trasmettere dati, lo può fare ed ha la temporanea proprietà esclusiva della rete. Al termine della trasmissione, o se la postazione non ha nulla da trasmettere, passa il contrassegno alla postazione immediatamente successiva nel turno. Il token viene passato da postazione a postazione, fino all’esaurimento del turno e ad un nuovo inizio. Con questo sistema sono evitate le collisioni di dati, poiché ogni postazione è l’unica a trasmettere. In caso di una trasmissione di una serie di dati particolarmente lunga, od in presenza di una sosta dovuta alla lettura dei dati dal disco rigido, la rete rimane per lungo tempo occupata e tutte le altre postazioni sono impossibilitate ad utilizzarla. La metodologia CSMA/CD consente una migliore ottimizzazione della rete, in quanto ciascuna postazione può utilizzare i tempi morti delle altre. 91 Tecnologia La tecnologia di rete si riferisce alle regole di comunicazione fra server, postazioni di lavoro e periferiche. Ciascuna tecnologia di rete utilizza esclusivamente una metodologia ed una topologia ben definite. Alcune fra le più diffuse sono: - Ethernet (metodologia a CSMA/CD e topologia a bus); - Token ring (metodologia a Token passing e topologia ad anello); - Appletalk (metodologia a CSMA/CD e topologia a bus). Ciascuna tecnologia ha diverse caratteristiche, con limiti differenti sulla distanza massima fra il server e gli estremi della rete e sul numero di postazioni collegabili. Protocollo Come nella trasmissione di dati via modem, anche nelle trasmissione di dati attraverso la rete ha bisogno di definire il protocollo, cioè il modo in cui i byte vengono codificati e trasmessi lungo i cavi. Mentre c’è una corrispondenza univoca fra topologia e tecnologia di rete, ciascuno protocollo può essere adottato dalle diverse tecnologie sulle rispettive topologie. Reti con diverse tecnologie possono avere lo stesso protocollo, mentre reti con la stessa tecnologia potrebbero usare diversi protocolli. I protocolli principali sono stati stabiliti dalle stesse case produttrici, tranne uno che è stato elaborato dal Ministero della Difesa degli Stati Uniti che, essendo il maggior acquirente al mondo di computer, in pratica detta legge sugli standard: - TCP/IP (richiesto dal Ministero della Difesa degli Stati Uniti, viene adottato da tutte le tecnologie di rete); - IPX/SPX (sviluppato dalla Novell, una casa produttrice del più diffuso sistema operativo di rete operante sui personal computer); - NetBIOS e SDLC (sviluppati dalla IBM ed utilizzati per i propri elaboratori e personal). Sistema operativo di rete Il programma che gestisce la rete ed amministra tutte le postazioni di lavoro e le periferiche collegate, è per la rete l’equivalente del sistema operativo per il singolo computer. Su di lui risiede la responsabilità del funzionamento dell’intera rete, della trasmissione dei dati da una postazione ad un’altra, da una postazione ad una periferica, da un disco ad una postazione e viceversa. Il programma di rete deve risiedere in un computer dedicato a questa sola funzione, chiamato server, e deve sempre essere in esecuzione. Spesso il sistema operativo di rete è in grado di gestire reti con metodologie, topologie, tecnologie e protocolli diversi. Parallelamente, deve essere presente un programma di amministrazione della rete, a volte in esecuzione sullo stesso server, altre volte da una postazione di rete. Il programma di amministrazione deve: - autorizzare l’accesso di nuovi utenti; - cancellare utenti da escludere; - stabilire criteri di riservatezza e gerarchie di accesso ai diversi archivi connessi alla rete; - identificare ciascuna postazione e ciascuna periferica con un identificativo univoco; - controllare l’efficienza della rete, la perfetta trasmissione dei dati, gli eventuali malfunzionamenti; - stabilire le modalità di connessione fra la rete gestita ed altre reti eventualmente collegate. 92 L’accesso al programma di amministrazione della rete viene concesso esclusivamente, tramite una parola d’ordine, al network manager, figura essenziale in qualsiasi tipo di rete, piccola o grande che sia. Il network manager, oltre ad assolvere ai compiti sopra elencati, deve stabilire la collocazione e la dimensione fisica della rete e controllarne frequentemente lo stato. Componenti della rete Altri componenti fisici o logici della rete, oltre al sistema operativo, sono: - server; - nodo; - pacchetto; - cavi; - repeater; - bridge; - router; - gateway. Server E’ il computer sul quale è in esecuzione il sistema operativo di rete. Non è importante la sua collocazione fisica nell’ambito della rete, se non nella topologia a stella. In quelle a bus o ad anello può essere una qualsiasi delle postazioni. La maggior parte dei programmi di rete richiede che il server sia adibito a questo scopo esclusivo, e quindi quella postazione non può essere utilizzata per l’ordinario lavoro. Nodo Il termine si riferisce a qualunque apparecchiatura sia connessa alla rete, sia una postazione che una periferica, sia un server che un bridge o router. I nodi sono identificati dal sistema operativo di rete con un numero assegnatogli all’atto dell’installazione della singola apparecchiatura. Il numero identificativo del nodo costituisce l’indirizzo della apparecchiatura.§ Pacchetto Il pacchetto è il più piccolo blocco di dati che il protocollo utilizzato dalle rete è capace di trattare. I documenti inviati da un nodo ad un altro vengono suddivisi in pacchetti. In ciascun pacchetto, altre ai dati, sono presenti i numeri dei nodi di destinazione e di partenza e il numero progressivo del pacchetto all’interno dell’intera trasmissione. Ciò consente, nel protocollo CSMA/CD, di identificare i pacchetti persi per collisione e di effettuarne la ritrasmissione. Cavi La scelta dei cavi con i quali effettuare la trasmissione deve essere effettuata in considerazione non solo del costo dei cavi e delle loro installazione, ma soprattutto delle dimensioni che la rete deve avere, delle tecnologie utilizzate e del traffico prevedibile di dati. I tre tipi di cavi più utili sono: - doppino telefonico: filo a due poli, spesso non schermato, utilizzato per le normali linee telefoniche (il costo è molto basso, l’efficienza buona e la capacità di traffico mediocre); - cavo coassiale: filo a due poli, uno interno ed uno esterno che funziona anche da isolante per interferenze elettriche esterne (il costo è medio, l’efficienza buona e così anche la capacità di traffico); - cavo ottico: i dati viaggiano grazie ad un segnale luminoso generato da un laser attraverso un cavo in fibra di vetro (il costo è molto alto, l’efficienza ottima e la capacità di traffico altissima). 93 Un tipo di collegamento attualmente in sperimentazione prevede il collegamento senza l’utilizzo di cavi. Due sono i metodi: - con infrarossi; - con onde radio. Nel primo caso ciascun nodo è dotato di un sensore ricevete e di un emettitore di infrarossi. Ciascun nodo, però, devo trovarsi a portata visiva di un altro e il contatto non deve interrompersi, quindi non deve essere disturbata da oggetti, da apertura o chiusura di porte o passaggio di persone. Nel secondo caso i nodi sono dotati di un ricetrasmettitore radio. I nodi possono trovarsi anche in posti diversi di un palazzo, od in palazzi adiacenti. Questa tipo di collegamento offre innumerevoli vantaggi. Una applicazione è legata all’uso di computer notebook a penna. Grazie al collegamento via radio, ciascun notebook può essere utilizzato all’interno di un edificio con una mobilità assoluta. Ad esempio, ne possono essere dotati i medici o le infermiere di un ospedale, che così possono accedere ai dati generali di tutti i pazienti ed integrarli con prescrizioni, note, osservazioni e diagnosi direttamente dalla stanza del paziente. Utilizzando frequenze radio diverse, vicine a quelle delle normali radio ricetrasmittenti, può collegarsi alla rete pur trovandosi in una qualunque parte della città. Soluzione studiata per i rappresentanti commerciali o per i dirigenti impegnati in riunioni fuori dalla sede dell’azienda. Repeater Ciascuna tecnologia di rete ha una distanza massima oltre la quale i dati non possono essere trasmessi. Il segnale arriva, a quella distanza, ai limiti della comprensibilità, deteriorato e affievolito dal passaggio nel cavo. Un repeater amplifica e ritrasmette il segnale, aumentando così la distanza massima raggiungibile dalla rete. Attraverso il repeater passa tutto il traffico di dati, non solo quello destinato alla parte opposta della rete, in modo da trasmettere la portante del segnale nelle metodologie CSMA/CD per occupare la rete, o il contrassegno di turno nelle metodologie token passing. Bridge Un bridge consente il collegamento fra due reti, in modo che le due reti ne formino una sola e che ciascun nodo della prima rete possa ricevere o trasmettere dati scambiandoli con un nodo della seconda rete. Il bridge è collegato ad entrambe le reti ed esamina tutti i pacchetti in circolazione nelle due reti. Quando riconosce, in un pacchetto di una rete, l’indirizzo di un nodo appartenente all’altra rete, lo smista in modo totalmente invisibile per gli utenti. Il normale traffico di dati all’interno di ciascuna rete continua ad avvenire in modo del tutto indipendente e separato. Router Un router è un dispositivo che unisce due reti. Se una od entrambi queste reti sono connesse ad altre tramite altri router, anch’esse sono connesse fra loro. I dati possono essere scambiati anche fra nodi di reti non adiacenti, attraverso il passaggio di router diversi. Il router riconosce l’indirizzamento del pacchetto, e lo inoltra a destinazione attraverso diverse reti e diversi router seguendo la strada più conveniente. Nel caso che questa strada sia interrotta per traffico eccessivo di una delle reti intermedie o del suo blocco per malfunzionamento, il router cerca di inoltrare i dati seguendo percorsi alternativi. Il normale traffico di dati all’interno di ciascuna rete continua ad avvenire in modo del tutto indipendente e separato. Gateway Un gateway permette la connessione fra due reti che utilizzano diversi protocolli di trasmissione, traducendo i pacchetti di dati da un protocollo all’altro. Il gateway è tipicamente utilizzato per connettere una rete costituita da personal computer ed una costituita da un mainframe ed i suoi terminali. Le postazioni di lavoro della rete di personal computer possono diventare, tramite il gateway, terminali del mainframe collegato. Hanno bisogno, oltre del normale sistema operativo di rete, anche di un apposito software che, in esecuzione sulla singola postazione, simuli le caratteristiche hardware dei terminali utilizzati nella rete del mainframe e che effettui tutti gli adattamenti necessari per i diverso tipi di linguaggi e protocolli dei mainframe. 94 In pratica non è la rete dei personal ad essere connessa con il mainframe, ma è la singola postazione che, tramite la rete ed in gateway, diventa un terminale del mainframe aprendo con quest’ultimo una sessione di lavoro. Mentre per connettere due reti è sufficiente un solo bridge od un solo router, per connettere una rete di personal ad un mainframe possono essere necessari più gateway, in quanto ciascuno può consentire un numero limitato di sessioni di lavoro. Considerazioni finali L’avvento delle reti di personal computer è stato il passo decisivo perché il personal potesse avere un ruolo nell’informatica aziendale. La possibilità di interconnettersi fra di loro, tramite bridge e router, e con mainframe, tramite gateway, formando reti composte da altre reti, è stato il passo successivo verso la completa integrazione fra sistemi diversissimi. Con questi strumenti è possibile integrare il lavoro compiuto in ambienti diversi, con programmi differenti e su macchine incompatibili. L’informatica, che era composta da tante aree isolate, si è tramutata in un unico ambiente grazie alla presenza attiva del personal computer. Esistono ancora molte difficoltà, e la situazione può essere simbolicamente rappresentata dal fatto che il capitolo della connessione in rete è quello che adotta il maggior numero di sigle ed acronimi di tutta l’informatica. In termini produttivi, una rete è già in attivo anche con pochissimi computer collegati, non fosse altro che per la possibilità di acquistare un numero limitato di periferiche che, inserite come nodi della rete, possono essere utilizzate da tutte le postazioni di lavoro. 95 Il Cabinet Case Tower Case Mid Tower Case Mini Tower Il cabinet è il contenitore che racchiude l'elettronica del computer. Fondamentalmente le categorie sono due, con qualche variante: DESKTOP TOWER Slim (compatto) Desktop Minitower Tower Connettori da 2 a 4 da 6 a 8 da 5 a 8 8 Vani esterni 2o3 3o4 3o4 da 4 a 6 Vani interni 1o2 2o3 2o3 da 4 a 6 Pro Estremamente compatto. Può essere usato come supporto per sollevare il monitor Per l'utente medio offre una buona espandibilità Si può posizionare sotto la scrivania Espandibilità ottima 96 Contro Limitazione sulla espandibilità L'espandibilità non è sempre facile Interno spesso caoticamente super affollato Per un utilizzo medio può essere troppo ingombrante Le nuove schede madre di tipo ATX richiedono un cabinet predisposto di dimensioni differenti da quelle standard.. 97 La motherboard (Scheda madre) Potete chiamarla come volete: scheda madre, mainboard, motherboard, ma il suo ruolo resta comunque inalterato: è la centrale di comando, il cuore del sistema. La scheda madre costituisce sicuramente la parte più importante del computer. In essa trovano alloggiamento numerosi componenti: Una motherboard baby AT con i principali componenti il processore (CPU) la memoria RAM il BIOS controller per unità a dischetti e dischi fissi gli slot (alloggiamenti delle schede di espansione) a 16 e 32 bit. il Chipset le porte di comunicazione 98 99 La CPU pagina 1 di 2 Il processore (chiamato anche CPU, dall'inglese Central Processing Unit) è il cervello del personal computer, esegue milioni di operazioni al secondo e il suo compito è occuparsi di tutte le operazioni richieste dalle applicazioni e dal sistema operativo. E' installato su uno speciale zoccolo saldato sulla scheda madre detto socket: 100 101 La RAM In un personal computer la memoria principale viene chiamata RAM (Random Access Memory), maggiore è la sua quantità e migliori saranno le prestazioni del computer dove essa opera. I programmi odierni, sempre più complessi, richiedono sempre più memoria. I chip RAM sono installati su moduli (piccole schede) chiamati Simm (Single In-line Memory Module) o sui nuovi Dimm (Dual In-line Memory Module). Questi moduli sono a loro volta inseriti negli appositi slot presenti sulla scheda madre. La memoria viene misurata in byte, dove: 1 byte = 8 bit (1 bit è l'unità elementare di informazione binaria che può assumere i due valori 0 o 1 ) 1 kilobyte (Kb) = 1024 byte 1 Megabyte (Mb) = 1024 Kb 1 Gigabyte (Gb) = 1024 Mb Quanta RAM è necessaria ? Sitema operativo RAM consigliata DOS con Windows 3.xx 16 Mb Windows 95 32 Mb Windows 98 64 Mb Windows NT 64 Mb 102 I moduli memoria in dettaglio In questa sezione della guida sono stati riprodotti tutti i differenti tipi di moduli memoria attualmente commercializzati, così da poterli facilmente individuare: Modulo memoria Simm 30pin Modulo memoria Simm EDO da 72 pin Modulo memoria SDRAM PC100 dalla capacità di 32 Mbytes Modulo memoria SDRAM PC133, da 64 Mbytes di capacità Modulo memoria SDRAM PC133 ECC Registered, dalla capacità di 256 Mbytes; i chip montato in orizzontale, nella parte inferiore del PCB, gestiscono le funzioni di correzione d'errore. Modulo memoria DDR-SDRAM PC2100, da 128 Mbytes di capacità 103 Modulo memoria Rambus, PC800, da 128 Mbytes di capacità 104 I vari Slot memoria presenti sulle schede madri Una scheda madre è formata da numerosi, differenti componenti; gli Slot memoria sono in genere facilmente individuabili ma per maggiore praticità sono stati indicati nell'immagine sottostante, riproducente la scheda madre Socket 370 Abit BX-133 Raid: I tre Slot memoria per moduli Dimm a 168 pin montati sulla scheda madre Abit BX-133 Raid sono facilmente indviduabili: in genere i banchi memoria sono disposti in orizzontale, parallelamente al lato più lungo della scheda madre, così da sfruttare al meglio la superficie della scheda madre ed evitare che i moduli possano andare in contatto con altri componenti. Nella sezione precedente sono stati indicati i differenti tipi di moduli memoria disponibili; ovviamente, ad ogni modulo memoria corrisponde un differente banco memoria montato sulla scheda madre: Banco memoria Simm a 72 pin, capace di accettaremoduli memoria Simm Fast Page ed EDO da 72 pin. Tale banch è in genere montato sulle schede madri per cpu Intel Pentium e su alcune delle schede madri per processori 486. Banchi memoria per moduli Dimm a 168 pin: sono i banchi memoria più diffusi tra quelli presenti in comemrcio, capaci di accettare moduli memoria SDRAM PC66, PC 100 e PC133. A seconda del chipset utilizzato è possibile utilizzare, con banchi memoria, anche moduli memoria ECC, ECC Registered e VC (Virtual Channel). 105 Banchi memoria per moduli RIMM Rambus: in essi è possibile montare soltanto moduli memoria RIMM (Rambus); a seconda della frequenza di bus selezionata sarà possibile utilizzare uno dei tre differenti tipi di memoria Rambus a disposizione, tra PC600, PC700 e PC800. Particolare della reference board Socket A AMD Corona, basata su chipset AMD-760; in particolare si notano i 4 Slot memoria per moduli DDR-SDRAM. 106 Il disco fisso Un po' di teoria Il disco fisso (in inglese hard disk) è una sorta di contenitore elettronico dove vanno conservate le informazioni di cui non si ha un bisogno immediato, ma che comunque devono essere conservate. Il disco fisso fa parte della categoria memorie di massa (insieme al floppy disk e unità a nastro). Il supporto magnetico dei dischi fissi e dei floppy disk è suddiviso in una serie di cerchi concentrici separati l'uno dall'altro chiamati tracce. La superficie del disco, quindi è divisa da questi cerchi/tracce ben distinti, che iniziano dal bordo esterno fino ad arrivare alla traccia più interna. La quantità delle tracce varia a seconda del tipo di disco. Proprio come la larghezza del disco è suddivisa in tracce, la circonferenza di ogni traccia è a sua volta suddivisa in diversi segmenti adiacenti chiamati settori. I settori contenuti nelle tracce e le tracce contenute sulla superficie del disco vengono identificati con dei numeri che vengono loro assegnati. 107 IL CD-ROM Quello che fino a qualche tempo fa veniva considerato un optional è divenuto un elemento fondamentale del sistema. E' in grado di memorizzare una quantità impressionante di dati (650 Mb). I lettori CD-ROM non sono tutti uguali. La continua variazione delle velocità dalla 2X alla 50X hanno migliorato la transfer rate che nei primi lettori 1X era di 150 Kbps (KByte per secondo). Vale la pena precisare infatti, che la denominazione 52X non sta ad indicare una velocità di rotazione 52 volte più veloce rispetto alla 1X, ma questo parametro indica il Data Transfer Rate, ossia la quantità di dati inviata al pc: ad esempio un 40X invierà, a parità di tempi, un quantitativo di dati doppio del 20X. Il DVD Il DVD acronimo di Digital Versatile Disk rappresenta il naturale miglioramento della tecnologia CD-ROM. Utilizzando una tecnologia di memorizzazione su dischi ottici di nuova generazione, sarà utilizzato per supportare una vasta gamma di prodotti elettronici di consumo e di periferiche per PC. Il DVD non è semplicemente un ulteriore supporto di memorizzazione, ma un sistema di memorizzazione digitale in grado quindi di sostituire le attuali tecnologie di memorizzazione su CD audio, CD-ROM, videonastri VHS ecc. La tecnologia DVD è stata appositamente progettata per applicazioni multimediali, audio, video e dati e sostituirà presto il caro vecchio CD-ROM. Il DVD è in grado di memorizzare una quantità enorme di dati, garantendo una piena compatibilità in lettura con i maggiori dispositivi di archiviazione ottica. Il suo supporto può essere cancellato e riscritto come su un disco fisso grazie a una particolare tecnologia chiamata " a cambiamento di fase" . Vengono proposti sia in versione SCSI che IDE. Le unità DVD sono compatibili con la tecnologia ottica preesistente e sono quindi in grado di leggere i comuni CD-ROM. 108 Il modem Ciò che fino a qualche tempo fa era considerata una necessità per pochi eletti è ora divenuto un elemento indispensabile: stiamo parlando del modem (modulatore - demodulatore), la porta di accesso del computer al mondo esterno. Questo preziosissimo elemento che consente i collegamenti a Internet, servizi online, banche dati e BBS, ha subito negli ultimi anni straordinari incrementi di prestazioni tanto da arrivare a velocità di 56 kilobit (57.600) per secondo: Evoluzione del modem Anno 1995 1996 1997 1998 Velocità Kbps 14,4 28,8 33,6 56 109 Il monitor La gamma di monitor presenti sul mercato è molto ampia. La maggior parte dei computer viene offerta con monitor da 14" (14 pollici) e questa non rappresenta di certo la soluzione ideale. A fronte di un minimo risparmio viene corrisposta una prestazione spesso scadente. Un buon display da 15 pollici ha un prezzo di circa 150 - 200 mila lire superiore ad un 14" ma i suoi vantaggi compensano pienamente la differenza di prezzo. La maggiore area di visualizzazione consente di visualizzare comodamente una risoluzione di 800 x 600 punti. Ricordarsi che la qualità alla fine paga sempre, soprattutto quando a farne le spese è la vista. Per chi poi passa molte ore davanti ad un computer sarebbe consigliabile un monitor a 17 pollici. Se poi il vostro lavoro è collocato nell'ambito della grafica o del CAD (Computer Aided Design), allora la risposta è categorica: 21 pollici. Una raccomandazione importante: valutare il monitor vedendolo in funzione. Non acquistare mai a scatola chiusa. 110 La scheda Video Per l'utilizzo medio o per il piccolo ufficio occorre orientarsi su modelli con 4 Mb di RAM video. Per i professionisti della grafica il consiglio è di indirizzarsi verso modelli con 8 Mb di Ram video. Nella scelta del minitor e della scheda accertatevi che qesti elementi possano supportare elevate frequenze di refresh e risoluzioni elevate. Quantità minima di Ram video per risoluzione e numero di colori Risoluzione 16 col. (4 bit) 256 col. (8 bit) 65.000 col. (16 bit) 16,7 milioni col. (24 bit true color) 640x480 500 Kb 500 Kb 1 Mb 2 Mb 800x600 500 Kb 1 Mb 2 Mb 2 Mb 1024x768 1 Mb 1 Mb 2 Mb 4 Mb 1280x1024 1 Mb 2 Mb 4 Mb 4 Mb 1600x1200 2 Mb 2 Mb 4 Mb 8 Mb 1800x1440 2 Mb 4 Mb 8 Mb 8 Mb 111 La risoluzione consigliata Poichè alle risoluzioni più alte i caratteri appaiono più piccoli con maggiori aree visualizzate sullo schermo, è necessario adattare la risoluzione in base alla dimensione del monitor per evitare immagini troppo piccole e di sicuro fastidio per la vista. Riportiamo la risoluzione ideale in relazione alla grandezza del monitor. Risoluzione 15 " 17" 19" 640x480 si si si 800x600 si si si 1024x768 sconsigliata si si 1280x1024 no sconsigliata si 1600x1200 no no no 112