L’INFORMATICA NELL’ERA DEL PERSONAL
6
Un personal su ogni scrivania
6
Struttura logica e fisica dell’informazione
7
L’INTERPRETAZIONE BINARIA
8
Bit e byte
9
Byte, Kilobyte e Megabyte
10
La rappresentazione esadecimale
11
IL PERSONAL COMPUTER
12
Desktop
12
Portatili
13
Notebook
14
Pen book
14
Palmtop
14
Gli altri computer
15
Hardware e software
16
COME SCEGLIERE UN PERSONAL COMPUTER
17
L'ORGANIZZAZIONE DELLE INFORMAZIONI
21
Una strategia per l'organizzazione
22
GUASTI, ASSISTENZA E CRIMINI
25
L'assistenza
26
L'origine dei guasti
26
Le precauzioni
28
In caso di guasto
28
I virus
29
Il crimine informatico
30
Il backup
31
1
Programmi di protezione
33
Le controindicazioni alla protezione
33
ASSEMBLARE IL PROPRIO PERSONAL
35
CPU
38
Mother board
38
RAM
39
Costi
39
IL MICROPROCESSORE
40
Caratteristiche tecniche
40
Microprocessori RISC
41
Considerazioni finali
42
Clock
43
LA MEMORIA
44
Memoria ROM
44
Memoria RAM
44
Volatilità della RAM
45
Dimensione della RAM
45
Memoria virtuale
46
LA SCHEDA MADRE
47
Processore DMA
50
Porte Esterne
50
USB
52
FireWire
52
Firmware e BIOS
52
Flash-ROM e Boot-ROM
53
LA SCHEDA VIDEO
54
2
Il Processore Grafico (GPU)
54
LA Video RAM
54
Il RAMDAC
55
LA SCHEDA AUDIO
56
LE UNITÀ DI MEMORIA DI MASSA
58
Caratteristiche tecniche
58
Dischi rigidi
59
I controller IDE e SCSI
59
I dischi fissi
61
Compact Disc
63
Supporti di memoria a registrazione ottica
65
Masterizzatori CD-R
66
Masterizzatori CD-RW
68
Digital Versatile Disk (DVD)
69
Considerazioni finali
70
La standard SCSI
71
MODEM E TELECOMUNICAZIONI
73
Modulazione e demodulazione
73
Protocolli
73
Commutata e ISDN
74
Linee dedicate
74
Caratteristiche tecniche
75
Indipendenti ed a schede
75
Modem/telefax
76
Considerazioni finali
76
Collegamenti a grande distanza
77
SCHEDA DI RETE
79
3
IL MONITOR
80
Monitor CRT
80
Monitor LCD
81
Considerazioni finali
82
Le radiazioni
84
Schermi touch screen
85
Data show
85
Videoregistratore
85
LA TASTIERA
86
Caratteristiche tecniche
86
Considerazioni finali
88
IL MOUSE
90
Mouse senza filo
91
La track ball
92
La touch pad
92
La tavoletta grafica
92
Il joystick
92
LE STAMPANTI
93
Evoluzione delle stampanti
93
Stampanti a matrice di punti
95
Stampanti a caratteri
96
Stampanti a getto di inchiostro (ink-jet)
97
Stampanti laser
98
Altre stampanti a colori
99
La compatibilità
99
Postscript
99
Costi accessori
100
4
Plotter
101
SCANNER E FOTOCAMERE DIGITALI
102
Scanner a ripresa in piano
102
Scanner a rullo
103
Scanner a tamburo
103
Scanner su stativo
104
Scanner manuale
104
Caratteristiche tecniche degli scanner
104
Consigli per l’uso degli scanner
106
La fotocamere digitali
108
I dorsi digitali
110
LA RETE LOCALE
111
Software di rete
112
Caratteristiche tecniche
112
Localizzazione delle postazioni
113
Topologia
114
Metodologia
114
Tecnologia
115
Protocollo
115
Sistema operativo di rete
115
Componenti della rete
116
Considerazioni finali
119
5
L’informatica nell’era del personal
L’informatica è la scienza dell’informazione. Ma nessuna definizione è, oggi, più
lontana ed insieme più vicina di questa.
Più vicina perché al suo centro si trova effettivamente l’informazione, non più
concentrata in grosse quantità e dispersa in pochi grandi elaboratori, ma diffusa in
centinaia di milioni di piccoli computer. Ogni personal ha la sua quantità di
informazioni locali, quelle che il suo utilizzatore vi introduce, e può attingere al
complesso delle informazioni, siano esse a livello aziendale tramite la rete locale che
connette i singoli personal fino a formare una entità unica, siano esse a livello
mondiale grazie ai servizi telematici disponibili sempre ed ovunque.
Più lontana perché della scienza ha perso tutta la struttura complessa e da iniziati che
l’aveva permeata sin dall’inizio. Grazie ai nuovi sistemi operativi, chiunque può
avvicinarsi ad un personal ed iniziare ad usarlo senza dover assistere a corsi
introduttivi o seminari di informatica, senza imparare linguaggi di programmazione,
senza dover ricorrere a manuali di centinaia di pagine.
E’ sufficiente il manuale che è a corredo della macchina e quello a corredo di
ciascun programma. Spesso, nel caso di sistemi operativi di tipo grafico, anche quelli
sono quasi superflui, a meno che non si tratti di programmi altamente specializzati.
La gran parte dei programmi attualmente commercializzati per i personal è stata
realizzata con una filosofia “user friendly”, cioè amichevole per l’utilizzatore. Tutti i
comandi disponibili vengono visualizzati sullo schermo, con evidenziati i tasti che li
mettono in opera. I comandi, la loro struttura e, soprattutto, la loro logica di
funzionamento sono comuni fra i diversi programmi. Passare da uno all’altro, per
scrivere una lettera o per aggiornare una situazione fiscale, non provoca più il
disorientamento e gli errori di una volta.
Un personal su ogni scrivania
“Un personal su ogni scrivania”: è questo un sogno che solo 15 anni fa apparteneva
ad uno sparuto gruppo di programmatori statunitensi. Si riunivano in club per
discuterne, dopo il lavoro o dopo lo studio, e per scambiarsi le ultime esperienze.
Alcuni di loro lavoravano in grandi aziende ai progetti per grandi elaboratori per
centri calcolo, mentre a casa armeggiavano intorno ad un piccolo computer costruito
da loro stessi con materiale trovato nei negozi di componenti elettronici di seconda
mano. Alcune volte il piccolo elaboratore, senza alcuna possibilità di utilizzazione
pratica, veniva costruito in qualche diecina di esemplari e venduto agli amici per
pochi dollari.
Nel giro di pochi anni, alcuni di questi appassionati sono diventati proprietari di
aziende informatiche che hanno succursali, stabilimenti di produzione ed uffici
commerciali in tutto il mondo. Il personal computer si è rivelato uno dei settori
industriali più vitali, in più rapida espansione ed evoluzione, in eccezionale
rinnovamento tecnologico.
Tuttavia nella visione di questi giovani appassionati non c’era solamente una
prospettiva commerciale. Anzi, nella maggior parte dei casi l’idea di diventare ricchi
era del tutto impensabile: la loro spinta ideale non era inferiore a quella di tanti loro
coetanei dell’epoca che cercavano di cambiare il mondo.
Era però una visione molto particolare. “Un personal su ogni scrivania” era uno
slogan che non si collegava al fatturato industriale di una azienda produttrice di
6
computer, bensì alla possibilità, per ciascuno, di utilizzare la potenza eccezionale di
un computer nell’archiviare, rintracciare, elaborare le informazioni. In un mondo nel
quale chiunque avrebbe potuto accedere a tutti i dati, a tutte le notizie, a tutte le
informazioni esistenti, scambiarle via telefono con chiunque altro al mondo, far
circolare istantaneamente ed in modo inarrestabile idee ed opinioni, nessun governo
avrebbe potuto opprimere o ridurre le libertà.
Il pericolo che questi appassionati vivevano come ossessione, era costituito dalle
grandi aziende che, in poche, avevano il monopolio dell’informatica. L’incubo era lo
spettro di grossi elaboratori, contenenti informazioni riguardanti la vita privata dei
cittadini, gestiti dai servizi segreti. Avevano capito che l’informazione, nel mondo
moderno, è potere. Lasciarla concentrata in mano ad industriali, politici e militari,
voleva dire lasciargli un immenso potere.
Dopo pochi anni il sogno si è avverato, e si è trasformato in un grande affare da
migliaia di miliardi di dollari.
Ironia della sorte, ne hanno tratto un grandissimo vantaggio quelle stesse grandi
aziende informatiche costruttrici dei grandi elaboratori elettronici che facevano così
tanta paura. Gli stessi piccoli laboratori, impiantati nei garage, sono diventati aziende
multinazionali. Molti di quegli idealisti di 20 anni fa, ora sono multimiliardari e
dedicano parte del loro tempo, o vi hanno dedicato la vita abbandonando il lavoro, ad
attività benefiche ed a fondazioni a scopi sociali.
Struttura logica e fisica dell’informazione
Esistono, tuttavia, alcuni concetti base, in comune con la tradizionale scienza
informatica, da chiarire innanzi tutto.
Nei computer abbiamo due tipi di informazione: il programma (o applicativo) e
l’archivio di dati (o file).
Il programma è costituito da una serie di codici di comando, scritti in un linguaggio
che il computer sia in grado di comprendere. Il linguaggio di programmazione è
altamente sintetico e complesso, ed utilizza le capacità elaborative del computer.
Questo, da parte sua, deve poter comprendere il linguaggio, interpretare ed eseguire i
codici di comando, quindi proseguire nel programma.
Un file è il risultato del lavoro compiuto dall’utente con un programma. L’unità più
piccola dell’archivio è il singolo carattere, lettera, numero e segno che sia.
L’archivio, con tutto l’insieme dei dati che contiene, non è utilizzabile di per se
stesso, se non tramite la presenza di un programma. L’archivio può essere di grosse
dimensioni, come la banca dati fiscale sui contribuenti italiani, oppure piccola, come
la lettera scritta ad un amico.
Questa è la struttura logica dell’informazione, la struttura fisica è invece ben diversa
e si basa sulla natura dell’elettromagnetismo.
Lo stato elettromagnetico della materia può essere solamente positivo o negativo. In
certe sostanze questo stato può essere facilmente alterato, ma una volta stabilito
viene conservato inalterato finché non viene di nuovo mutato da una forza esterna.
L’esistenza dell’informatica è dovuta alla concezione della matematica binaria, per
la quale non esistono dieci numeri, ma due soli: lo zero e l’uno.
Prendiamo alcune porzioni di materia magnetizzabile ed in alcune ne cambiamo lo
stato elettromagnetico in positivo, mentre altre le rendiamo negative. Accettiamo di
definire lo stato positivo come un 1, e quello negativo con uno 0. Ecco che possiamo
esaminare la materia e ricavare degli 1, da quelle porzioni che abbiamo risultano
positive, e degli 0, da quelle che risultano negative.
7
L’informatica degli albori era proprio così: i computer erano costituiti da gigantesche
griglie di anelli metallici collegati da fili. Alcuni erano magnetizzati ed altri no, e la
diversa successione di polarizzazioni dava origine a lunghe sequenze di 0 ed 1 che
rappresentavano i dati.
La forza che magnetizzava gli anelli metallici era il flusso di elettroni dell’energia
elettrica; le diverse polarizzazioni degli anelli erano rivelati dal flusso di elettroni che
la polarizzazione negativa emette e quella negativa no. Tuttavia la polarizzazione
degli anelli non era permanente: esistevano apposite schede, in cartone, nelle quali
venivano praticati dei fori che rappresentavano gli anelli da magnetizzare, chiamate
schede perforate.
La grande rivoluzione dell’informatica, che ha portato alla potenza attuale degli
elaboratori, è dovuta al rapido progresso tecnologico.
Da una parte gli anelli metallici sono stati sostituiti da speciali sostanze chiamate
semiconduttori, che permettono di realizzare con le singole molecole quel
meccanismo di cariche negative e positive che era realizzato con gli anelli.
I vecchi giganteschi circuiti sono ora diventati sottili lamine visibili solo al
microscopio, aumentando in proporzione la quantità di dati che è possibile elaborare.
Questi componenti sono chiamati chip, proprio per essere composti di sottili sfoglie
di semiconduttori.
Dall’altra parte la messa a punto della registrazione magnetica ha permesso di
conservare i dati direttamente in forma magnetica, consentendo una maggiore
capacità di archiviazione e soprattutto l’immediatezza nella fasi di registrazione e di
lettura. Una speciale sostanza, le cui molecole conservano la polarizzazione, è stesa
su una superficie costituita da un nastro o da un disco. In fase di registrazione una
testina elettromagnetica emette un campo elettromagnetico per modificarne la
polarizzazione, in fase di lettura è la stessa testina che ne percepisce la
polarizzazione.
Tuttavia, anche se sono cambiate le dimensioni e le capacità di elaborazione, la
struttura fisica delle informazioni è sempre costituita da cariche negative e positive,
da 0 ed 1.
L’interpretazione binaria
Se le informazioni sono composte da tanti 0 ed 1, manca ancora un passo per arrivare
ai programmi ed agli archivi di dati.
E’ stata una convenzione accettata da tutti quella di attribuire un segno di 0 od 1 alla
carica magnetica di polarizzazione, un’altra convenzione è necessaria perché queste
serie di 0 ed 1 acquistino un senso.
Nella matematica binaria, ad esempio, gli 0 ed 1 hanno una volare non in se stessi,
ma in corrispondenza della loro posto nella serie.
Prendiamo una serie di otto cifre binarie. Gli 0 valgono sempre 0. Gli 1 hanno un
valore a seconda della loro posizione. Al primo posto ha valore 1, al secondo 2, al
terzo 4, al quarto 8, al quinto 16, al sesto 32, al settimo 64 ed all’ottavo 128. Se sono
presenti più 1 in posizioni diverse, i loro valori si sommano.
Se la serie vede un solo 1 al primo posto, il valore totale è 1. Se c’è un 1 al secondo
ed al terzo posto, il valore è 6 (2+4). Se c’è un uno al primo, al secondo ed al terzo
posto, il valore è 7 (1+2+4). Se la serie è composta da tutti 1, il suo valore è 255
(1+2+4+8+16+32+64+128). Se comprendiamo anche il valore 0 di una serie senza
alcun 1, abbiamo un totale di 256 valori.
La convenzione che dobbiamo accettare è la rappresentazione, per ciascuna dei 256
valori, di una lettera, di una cifra, di un simbolo o di un codice. Le attribuzioni dei
8
primi 128 valori sono stabilite da un codice valido per tutti i computer, l’American
Standard Code for Information Interchange, chiamato ASCII, mentre i
successivi 128 sono lasciati alla definizione del singolo sistema operativo.
Nel codice ASCII, ad esempio, la lettera A maiuscola è rappresentata dal valore 65
(cifra binaria 10000010=1+64), la B dal valore 66 (01000010), la C dal valore 67
(11000010). Il numero 0 è attribuito al valore 48 (00001100), il numero 2 al valore
49 (10001100). La virgola è rappresentata dal valore binario 44, il punto dal valore
46 e così via.
I valori superiori al 128 rappresentano lettere o simboli speciali, come le lettere
accentate o i caratteri grafici. Le attribuzioni di questi valori cambiano anche per
permettere alle diverse entità linguistiche di inserire le proprie particolarità.
Bit e byte
Nel gergo informatico la singola cifra binaria, di valore 0 od 1, viene chiamata bit.
La serie di otto cifre binarie, quindi di otto bit, che da origine ai 256 valori, viene
chiamata byte. Un bit può valere 0 od 1, mentre un byte può valere da 0 a 255.
Come si è visto dal codice ASCII, ogni lettera, numero o simbolo viene
rappresentata da un singolo byte.
Tutte le informazioni, sia i dati che i programmi, vengono registrati, letti ed
elaborati, sotto forma di byte. E’ questa la più piccola entità informatica, pur essendo
anch’essa suddivisa in otto bit, cioè in otto impulsi magnetici.
Ma la complicazione si espande ulteriormente quando si legge che alcuni computer
lavorano a 8 bit, altri a 16, altri a 32. Si vuole semplicemente dire che il computer
può considerare sia dati formati dal singolo byte, sia dati più grandi.
In molti campi la limitazione a 256 valori non era sufficiente. Ad esempio nella
grafica a colori. Assegnando un colore a ciascun byte si ottengono solo 256 colori,
molto al di sotto delle esigenze grafiche professionali. Un computer che lavori con
una scheda grafica a 24 bit è in grado di considerare gruppi di 24 bit come se fossero
un valore unico, ottenendo così 16’777’216 colori diversi. In realtà i 24 bit formano
tre byte, ma ciò vale solo per la struttura dell’archivio nel quale i dati vengono
conservati. I tre byte, una volta letti dalla testina, diventano un solo valore ed un solo
colore.
9
Ecco le definizioni di bit e byte:
elemento base binario: è uno 0 od un 1
otto bit formano un byte, quindi otto elementi binari: da 00000000 a
11111111, valori binari che esprimono 256 numeri decimali
due byte, quindi 16 bit, formano una word. Composta da 16 elementi
word
binari, rappresenta 65’536 numeri decimali
address tre byte, quindi 24 bit, formano un address. Composto da 24 elementi
binari, rappresenta 16’777’216 numeri decimali
quattro byte, quindi 32 bit, formano una long word. Composta da 32
long
elementi binari, rappresenta 4’294’967’296 numeri decimali
word
Bit
Byte
Tutte queste definizioni possono essere immediatamente dimenticate, visto che
nessun utilizzatore di personal dovrà mai effettuare calcoli binari. Sono state qui
riportate solo per comprendere la struttura fisica delle informazioni e per evidenziare
la differenza fra 8 bit e 32 bit.
Essendo quella binaria una matematica che opera in modo diverso dalla normale
matematica decimale, 32 bit non sono quattro volte più di 8 bit, bensì 16’777’216
volte di più.
Byte, Kilobyte e Megabyte
Questo per quanto riguarda la composizione dei dati. La dimensione degli archivi
viene, invece, misurata con altre unità di misura.
Si parte sempre dal singolo byte, formato da otto bit. Il multiplo superiore, nella
scala di misura, è il Kilobyte, ovvero un byte moltiplicato per mille. Ma poiché i dati
devono sempre essere registrati, letti ed elaborati per multipli di otto, un Kilobyte è
composto da 1.024 bytes. Si abbrevia in Kb.
Il multiplo ancora superiore è il Megabyte, pari a 1.024Kb. Si abbrevia in Mb ed
equivale ad un milione di byte, anzi a 1.048.576 byte.
Si sale poi al Gigabyte, pari a 1.024Mb, cioè a 1.048.576Kb, oltre un miliardo di
byte, abbreviato in Gb.
Questa scala di misura serve a definire la capacità di memoria di un computer, di
archiviazione di un disco, di lunghezza di un documento o di un archivio.
La memoria attuale dei personal computer oscilla fra 1 ed 8 Megabyte, con
possibilità di ulteriore espansione. La capacità di un dischetto si misura in qualche
centinaia di Kilobyte, quella di un disco rigido in decine o centinaia di Megabyte.
byte
Kilobyte
Megabyte
Gigabyte
Kb
Mb
Gb
Kb
1.024
1.048.576
1.073.741.824
Mb
1
1.024
1.048.576
1
1.024
10
La rappresentazione esadecimale
Vengono citati spesso, nell’informatica, i numeri esadecimali. In realtà i computer
lavorano esclusivamente in numeri binari. Per comodità i programmatori usano
rappresentare sia i numeri decimali (con 10 cifre) che i numeri binari (con due cifre)
con numeri esadecimali.
Questi hanno sedici cifre: le dieci cifre da 0 a 9 e quindi le sei lettere da A a F. Lo 0
esadecimale equivale al valore decimale 1 mentre la F esadecimale equivale al valore
decimale 16.
L’avere inventato una rappresentazione dei numeri usando 16 cifre, rende i numeri
più compatti. Già il numero decimale 100, rappresentato dal binario 0010110, in
esadecimale è 64.
Dal punto di vista dell’utente, ciò non ha alcuna rilevanza.
L’informatica nell’era del personal è molto più semplice e pratica. Del resto, lo
scopo degli inventori del personal non era di portare l’informatica a tutti, ma di
portare le informazioni a tutti.
11
Il personal computer
Esistono tipi diversi di personal computer, ed ognuno risponde ad una diversa
esigenza di lavoro:

desktop

portatili

notebook

penbook

palmtop
Desktop
I computer desktop sono i classici personal, che trovano posto sopra una scrivania e
che sono utilizzati nell’ordinario lavoro. Sono formati da una unità centrale, delle
periferiche aggiuntive, solitamente tastiera, mouse e monitor, e da una serie di
dispositivi come stampanti, lettori di Compact Disc, plotter, modem. Queste ultime
sono attrezzature addizionali, aggiungibili secondo le esigenze. Sono periferiche di
Input e di Output.
Le periferiche di Input sono quelle periferiche che permettono di inserire dei dati
all’interno del computer (tastiera e mouse, ma anche scanner, webcam, fotocamere,
microfoni).
Le periferiche di output sono quelle periferiche che permettono di ottenere i risultati
dell’elaborazione del computer, cioè monitor, stampanti, casse audio, proiettori…
L’unità centrale si presenta quasi sempre come un parallelepipedo di colore chiaro,
con qualche lucetta di segnalazione e tante fessure per la scambio dell’aria. Sul retro,
in genere, vi sono delle viti o dei ganci che permettono di sollevarne il coperchio.
A patto che la spina, per prudenza, sia staccata, possiamo aprire l’unità centrale. Il
parallelepipedo si rivela essere vuoto almeno per metà del volume. Esaminiamo gli
elementi che vi troviamo.
In un angolo, in corrispondenza con la presa di alimentazione, c’è il trasformatore. Il
computer consuma pochissima energia elettrica, ed a basso voltaggio. Il
trasformatore è racchiuso in una gabbia di metallo.
Accanto troviamo il drive per i dischetti rimovibili in corrispondenza della fessura
per inserirli e, sotto o di fianco, il disco rigido. Anche essi sono spesso rivestiti da un
guscio di metallo.
Sotto a tutto, coprendone l’intera estensione, un circuito stampato con numerosi
componenti elettronici: è l’elemento più importante del computer e si chiama scheda
madre.
Direttamente saldati sulla scheda madre, oppure inseriti in essa, troviamo:

microprocessore
12

clock

memoria RAM

interfaccia grafica per il video

una o più interfacce per il collegamento delle periferiche

connettori, chiamati slot, per l’inserimento di schede aggiuntive
Sul retro dell’unità centrale abbiamo una serie di connettori, per il video, la tastiera,
per periferiche come stampanti o mouse. Abbiamo anche alcuni spazi vuoti per
inserire altri connettori.
All’unità centrale vengono collegati tutti gli altri elementi del computer, comprese
tutte le periferiche successivamente aggiunte.
Il desktop è il computer ideale per il quotidiano lavoro d’ufficio. Lo rendono tale la
grandezza e la leggibilità del monitor, la capacità di espansione di memoria fino a
molti Megabyte e la possibilità di ospitare unità di registrazione dalle capacità
ingenti. La presenza di numerosi connettori lo rende disponibile al lavoro con
apparecchiature periferiche esterne sia come gestore delle stesse che come
raccoglitore dei dati.
Portatili
I computer portatili sono molto più compatti. La caratteristica essenziale è quella di
riunire in un solo corpo sia la scheda madre che l’unità a dischi, sia la tastiera che il
video. Quest’ultimo è di tipo speciale, generalmente a cristalli liquidi, ma comunque
di ridottissimo ingombro.
Altra particolarità del computer portatile è quella di avere un accumulatore interno
che consente di lavorare in modo autonomo, senza necessità di allacciarsi alla rete
elettrica. Naturalmente questo accumulatore ha una durata limitata, il cui periodo di
tempo è determinato, più che dall’accumulatore stesso, dai risparmi di consumo che i
circuiti del personal consentono. Una buona ingegnerizzazione dei circuiti e l’uso di
componenti a basso consumo, possono consentire un uso anche di alcune ore.
Il computer è dotato di un coperchio, aprendo il quale appaiono lo schermo, sul retro
del coperchio, e la tastiera. Anch’essa è sacrificata, spesso i tasti sono piccoli e
manca il tastierino numerico.
All’interno del computer, la scheda madre è affollatissima, e lo spazio per schede
aggiuntive è limitato o inesistente. I connettori esterni sono limitati a quelli
strettamente necessari, anche se alcuni portatili sono dotati di una presa del segnale
video per poter collegare un monitor normale esterno.
Esternamente, chiuso, un computer portatile somiglia ad una macchina da scrivere
portatile, compresa la maniglia estraibile. Il suo peso si aggira sui 6 chili.
Ha rappresentato una svolta nel personal, in quanto l’ha reso effettivamente
trasportabile. Dotato di disco rigido, il portatile può realmente costituire un pezzo di
ufficio che ci segue. L’autonomia, pure se limitata nel tempo, rende possibile il
lavoro in qualsiasi ambiente. E’ frequente vedere computer portatili nelle sale di
attesa degli aeroporti, sia nazionali che internazionali, anche se in realtà l’uso a
bordo sarebbe vietato dalle norme internazionali di volo e, comunque, nessun
portatile è in grado di lavorare per tutta la durata di un volo dall’Italia agli USA.
I portatili sono utili anche per chi, professionalmente, deve svolgere parte del lavoro
13
fuori del proprio ufficio. Grazie al portatile ingegneri, giornalisti, avvocati e
rappresentanti di commercio possono utilizzare il computer in ogni occasione.
Notebook
Come dice il nome, questi computer hanno la stessa grandezza di un blocco note: 21
centimetri per 30. Ma non la stessa funzione, infatti sono computer personal a tutti
gli effetti e sono in grado di eseguire tutti i programmi dei computer desktop o
portatili.
Alcuni modelli sono privi del disk drive per dischetti, e lo scambio di dati con un
altro computer può essere effettuato esclusivamente tramite cavo.
Lo schermo è identico a quello dei portatili, ma tutto il resto è di dimensioni ancora
più ridotte. La tastiera è priva del tastierino numerico: questo può essere attivato
all’interno della stessa tastiera tramite uno speciale tasto.
Nel lavorare con un notebook si devono accettare dei compromessi con la comodità,
ma in cambio la praticità di questi computer è eccezionale. Piccoli, dal peso di circa
3 chili, possono essere portati comodamente in una valigetta 24 ore od anche in una
cartella portadocumenti.
Pen book
Un penbook è un notebook senza tastiera. E’ dotato di speciali programmi che ne
permettono l’uso grazie ad un apposito stilo a forma di penna.
La penna non è utilizzata solamente per impartire comandi ai programmi, a
somiglianza di quanto si può fare con il mouse dei desktop, ma anche per inserire
dati. Sullo schermo del penbook si può scrivere, esattamente come su un foglio di
carta, ed il computer interpreta la scrittura e la converte in caratteri di testo come se
fossero digitati con la tastiera.
Si tratta di un tipo di computer ancora in evoluzione. I sistemi operativi sono in via
sperimentale, così come i programmi. La fase di interpretazione della scrittura
manuale è ancora alquanto lenta e soggetta ad errori, mentre altri aspetti del
funzionamento sono più avanzati.
Ad esempio, la correzione e la modifica del testo già inserito avviene con modalità
molto innovative e molto simili al comportamento istintivo dell’utilizzatore. Se una
parola deve essere cancellata, basta tracciarvi sopra una croce con la penna. Per
inserire una parola od un carattere, basta tracciare una barra nel punto esatto. Per
cambiare “male” in “mele” si deve tracciare una croce sulla “a” e quindi scrivervi
sopra la “e”.
Palmtop
Il palmtop è un computer grande quanto una videocassetta.
Non bisogna confondere il palmtop con le agende o le calcolatrici tascabili. Sia le
prime che le seconde possono, in alcuni casi, scambiare dati con un personal, ma non
sono dotati né di sistema operativo né di programmi standard.
Il palmtop è un computer a tutti gli effetti. Non effettua calcoli o gestisce agende se
non con un programma apposito, mentre può elaborare o modificare documenti
esattamente come una desktop.
Le dimensioni ridottissime si ripercuotono su tutte le parti del computer. Lo schermo
14
a cristalli liquidi è ridottissimo, così anche la tastiera, i cui tasti sono minuscoli. Il
disco rigido è del tutto assente, e la registrazione dei dati avviene grazie a memorie
contenute in schedine autoalimentate. Lo scambio di dati con un desktop è possibile
solamente attraverso un cavo.
Il palmtop non serve certo come strumento principale di lavoro. Può essere utilizzato
per la consultazione di dati, o l’aggiornamento degli stessi. Si possono stilare alcune
annotazioni, ma scrivere una lettera diventa quasi impossibile e molto faticoso a
causa delle dimensioni dei tasti.
Gli altri computer
Il personal computer ha anche dei fratelli maggiori:

workstation

minicomputer

mainframe

supercomputer
Le workstation sono computer di uso individuale, dalle dimensioni e dell’aspetto di
un desktop o poco più grandi. Sono dotati di processori più evoluti, di maggiore
capacità di memoria e di archiviazione .
Le workstation sono adatte a svolgere compiti specializzati, spesso nel campo della
grafica, della progettazione, del disegno tecnico, dell’ingegneria. Si tratta di
applicazioni complesse, che richiedono una potenza ed una velocità che sarebbero
sproporzionate per il normale lavoro d’ufficio. Il costo di queste macchine,
d’altronde, è molto superiore a quello dei personal.
I minicomputer sono elaboratori ancora più potenti. Essi sono posti al centro di una
rete di terminali, ognuno dei quali lavora con il minicomputer come se fosse un
computer isolato, ma condividendo sia i dati che le apparecchiature di stampa, che
gli stessi programmi.
Tipica dei minicomputer, infatti, è la possibilità di avere un solo programma che
viene utilizzato in contemporanea da più terminali. Sono elaboratori particolarmente
utilizzati in ambito amministrativo aziendale, dove la condivisione dei programmi e
dei dati è un fattore essenziale: tutti possono lavorare con le stesse procedure ed i
dati possono essere aggiornati in tempo reale.
I mainframe sono su un gradino ancora superiore. Questi elaboratori possono essere
utilizzati da moltissimi terminali, anche a distanza tramite collegamenti telematici.
Possono conservare numerosi archivi di dati e mandare in esecuzione molti
programmi contemporaneamente.
Sono utilizzati nell’ambito di grosse aziende per la gestione industriale vera e propria
od in organismi statali per l’elaborazioni di grossi archivi di dati sempre in
evoluzione. Costituiscono il nucleo centrale dei servizi informativi delle banche,
degli istituti finanziari e delle borse. Sono anche impiegati dai servizi telematici
pubblici e privati perché permettono il collegamento contemporaneo di molti
terminali o computer e l’esecuzione veloce delle rispettive transazioni.
I supercomputer sono abbastanza rari. Il loro costo è molto alto e vengono utilizzati
nella progettazione industriale e nell’elaborazione di dati ad altissimo livello. Oltre
alle multinazionali, i supercomputer sono impiegati da organismi statali ed
15
organizzazioni militari.
Hardware e software
Altre definizioni sono molto comuni:

hardware

software
L’hardware è costituito da tutte le componenti materiali del computer. E’ la parte
fisicamente esistente, dall’unità centrale al monitor, dalla tastiera all’alimentatore, al
disco, ai microprocessori, ai chip di memoria.
Il software è composto dai programmi che fanno lavorare il computer. Una piccola
parte di questo è già compreso in alcune memorie all’interno del computer, e viene
chiamato firmware. Tutto il restante è registrato su disco e viene letto e caricato in
memoria dal computer per essere eseguito.
16
Come scegliere un personal computer
Quello che il computer deve fare, è di risolvere i vostri problemi, soddisfare le vostre
necessità e migliorare i vostri risultati. Il che vuol dire, in sintesi, rendere più piacevole la
vita e lo stesso lavoro.
Il computer non deve essere una complicazione in più in un lavoro già complicato. Deve
sciogliere i nodi organizzativi, deve rendere migliore lo scambio di informazioni, più veloce
il disbrigo della routine. Il computer è la soluzione ideale dove vi sia una grande quantità di
dati da gestire, dove il lavoro debba essere veloce ed accurato, dove le procedure sono
ripetitive.
Esaminiamo la situazione:

pensate che il vostro lavoro migliorerebbe con un computer?

quello che vi farà guadagnare è superiore alla spesa che affronterete?
Ammettiamo che abbiate dato una doppia risposta positiva, considerando anche che
vi sono guadagni non immediatamente percepibili, come una maggiore efficienza ed
accuratezza nel lavoro o il tempo risparmiato. Nei costi, però, vanno considerati i
materiali di consumo come i dischi, i nastri od i toner per le stampanti.
Passiamo a porci altri interrogativi:
- il computer deve svolgere un compito ben preciso oppure deve essere adatto a
più applicazioni?
Di solito un computer viene acquistato già con un obiettivo ben preciso, come tenere
la contabilità, oppure in sostituzione della macchina da scrivere. In questo caso è
necessario commisurare bene le caratteristiche del computer da acquistare alle reali
necessità. Inutile farsi affascinare dalle possibilità grafiche di una potente scheda
video quando il lavoro principale consiste nell’immettere i dati di fatturazione.
Oppure il contrario: acquistare, per realizzare comunicati stampa, un computer che è
incapace di lavorare con complesse impaginazioni di testo ed immagini.
Questo interrogativo coinvolge la scelta di un computer secondo il suo
microprocessore, la scheda video, la velocità.
- quali sono le necessità di elaborazione e di archiviazione?
In parole povere: qual’è la dimensione dell’archivio di dati che volete gestire e, dato
ben diverso, quanti di questi dati devono essere elaborati con una stessa operazione?
La grandezza totale dell’archivio coinvolge la scelta delle dimensioni del disco
rigido interno al computer, la quantità di dati da elaborare coinvolge il
microprocessore, la velocità, la configurazione di memoria.
Archivio totale e dati da elaborare sono due entità differenti. E’ ben più semplice
cercare il nome “Baldovinetti” fra diecimila nominativi, che selezionare fra
cinquemila ragioni sociali tutte le ditte che abbiano fatturato superiore a 100 milioni,
che producano estintori, che siano in provincia di Milano e quindi disporle in ordine
di Codice di Avviamento Postale. Nel primo caso l’archivio è più grande, ma la
ricerca richiede meno elaborazione; nel secondo l’archivio è più piccolo, ma la
ricerca coinvolge molti parametri da considerare contemporaneamente. Nel secondo
caso la richiesta di memoria e di velocità sarà molto maggiore.
17
- quali sono le necessità di accesso ai dati?
Si deve stabilire se i dati possono risiedere in archivi separati o devono essere
sempre facilmente accessibili. Certi dati hanno una scadenza determinata, come le
registrazioni fiscali, che possono essere conservare a parte anno per anno e ben
raramente dovranno essere consultate.
Questo interrogativo coinvolge il tipo e la dimensione del disco rigido, oltre al tipo
di dispositivo utilizzato per la registrazione delle copie degli archivi. Può rendersi
necessario l’installazione di un dispositivo di memoria di massa di grandi
dimensioni, come un lettore di dischi ottici.
- quali sono le necessità di uscita dei dati?
Potrebbe essere necessaria la stampa in modo accurato, oppure semplicemente delle
stampe di bassa qualità. Può essere necessario elaborare i dati in forma grafica, a
colori, e realizzare diapositive o lucidi per proiezioni. Queste esigenze influiscono
sulla scelta delle periferiche di stampa e sulla capacità del computer di gestirle
correttamente.
- è necessaria la condivisione di dati con altri computer?
Se le postazioni di lavoro sono più di una, potrebbe agevolare molto il lavoro di tutti
se l’archivio principale fosse in comune, accessibile e modificabile
contemporaneamente.
Questa scelta coinvolge la creazione di una struttura in rete, con consequenti scelte
sulla configurazione di memoria e sulla velocità dei computer.
- come avviene l’introduzione dei dati?
I dati possono essere introdotti tramite tastiera, oppure tramite penna ottica, tramite
collegamento telematico, tramite Compact Disc, tramite dischetti. La tastiera è in
dotazione ad ogni computer, ma gli altri dispositivi richiedono installazioni
particolari. Sono sufficienti i connettori interni per le schede di interfaccia? La
velocità del computer è sufficiente? Nel caso che ci si aspetti un ingresso di dati
tramite dischetti, sarà necessario procurarci il giusto disk drive per tutti i formati di
disco più comuni.
- chi è l’utilizzatore del computer?
Possiamo distinguere fra utilizzatore esperto, regolare o casuale. Mentre il primo può
essere in grado di usare qualsiasi tipo di computer, il secondo ma soprattutto il terzo
hanno bisogno di un computer che abbia un sistema operativo e dei programmi che
richiedano un minimo addestramento. Acquista maggiore importanza il servizio che
il rivenditore è in grado di fornire. Può effettuare tutta l’installazione ed il collaudo?
Può tenere un breve corso? Può seguire il lavoro nei primi mesi? Può effettuare
rapidamente la diagnosi dei malfunzionamenti ed identificare le cause in modo da
evitare lunghi immobilizzi della macchina non dovuti a veri e propri guasti?
Qualora non vi sia un utente esperto, questo tipo di servizi devono diventare parte
essenziale nella scelte di un computer.
- cosa succederebbe se il lavoro del computer venisse improvvisamente
interrotto?
Pur senza essere pessimisti ad oltranza, bisogna sempre considerare l’eventualità di
un guasto od un incidente al computer, al disco, al monitor o ad una periferica. Se il
lavoro che il computer svolge è di importanza vitale, è necessario che i dati non
risiedano in un solo disco ma che si effettuino regolari e frequenti copie di riserva e
che queste vengano conservate in un luogo sicuro.
Ciò coinvolge l’acquisto di apposite unità di registrazione a nastro, di eventuali
18
doppie periferiche o di un secondo computer dalle prestazioni inferiori a quello
principale ma in grado di sostituirlo per breve tempo.
- cosa succederebbe se i dati dell’archivio fossero distrutti, alterati o rubati?
Si profila qui l’ipotesi di un intervento doloso. Esistono strumenti per evitarlo, anche
se non del tutto. La perdita dell’archivio, ad esempio, può essere evitata
dall’installazione di una particolare scheda che effettua una copia compressa di tutti i
documenti su un disco rigido supplementare.
Questo interrogativo può interessare pochi casi, ma in quelli è importantissimo. E’
anche importante non sopravvalutare questa minaccia, per evitare rallentamenti ed
ostacoli nel lavoro quotidiano o che le stesse precauzioni si rivelino
controproducenti.
Ora, avendo elencato una serie di necessità, è possibile recarsi in un negozio e
chiedere un computer con caratteristiche ben precise. Non è per cattiva volontà o per
malizia da parte del negoziante se a volte l’acquirente è scontento dell’investimento
effettuato. Spesso ciò si verifica perché l’acquirente stesso non sapeva quello di cui
aveva bisogno.
19
La casistica degli acquisti errati vede:

computer sottodimensionato rispetto al lavoro da svolgere e quindi
nell’impossibilità di portarlo a termine;

computer sovradimensionato e quindi sottoutilizzato;

computer in configurazione errata, che rende impossibile o disagevole il
lavoro;

periferiche inadeguate alle necessità, che ostacolano il lavoro;

computer inutilizzato, perché non ve ne era l’effettiva esigenza.
Oltre alla necessità di provvedere ad un nuovo acquisto, devono essere considerati i
danni diretti ed indiretti che che l’errato acquisto ha provocato. La perdita di tempo,
ad esempio, ma soprattutto l’eventuale discredito procurato dai ritardi e dalle
inadempienze.
20
L'organizzazione delle informazioni
Dopo i primi anni del personal computer, nel quale scarseggiava sia la memoria che
lo spazio su disco, con l'avvento dei dischi rigidi ad alta capacità e delle memorie
RAM a prezzi contenuti, la quantità delle informazioni che un computer può
archiviare ed elaborare è cresciuta a dismisura.
I primi personal professionali venivano venduti con una RAM di 128Kb ed
utilizzavano dischetti da 160Kb, ma fra le macchine hobbystiche non erano rari i
32Kb od i 64Kb di RAM e l'archiviazione su audiocassette. Oggi in campo aziendale
si parla comunemente di macchine con 4Mb, 8Mb o 32Mb di RAM, di dischi rigidi
di 160Mb, 320Mb o 640Mb. Ma anche un ordinario disco rigido da 40Mb contiene
tanti dati quanti ne potrebbero contenere 250 dischetti da 160Kb.
Ecco che si pone il problema di come fare in modo che un nostro documento, magari
vecchio di qualche mese, all'improvviso diventato importante, urgente da
rintracciare, sia disperso in mezzo ad una mole di migliaia di altri documenti. I primi
sistemi operativi registravano i file tutti insieme. Dando il comando che elencava il
contenuto del disco, ecco che apparivano sullo schermo dieci, venti, trenta...
cinquanta o sessanta file.
Fin qui niente di male, a patto di avere un po' di pazienza. Ma quando sono arrivati i
dischetti da 720Kb o da 800Kb e la tecnologia ha permesso di costruire dischi rigidi
da 10Mb che costavano le metà di quelli da 5Mb, i sistemi operativi sono stati
aggiornati con quello che venne chiamato Hierarchical File System, cioè un sistema
gerarchico che permettesse di creare una struttura dei dati registrati su disco, di
organizzarli in modo logico e, soprattutto, di poterli rintracciare facilmente.
Facciamo un salto indietro di qualche anno. Dobbiamo immaginare il disco rigido
del nostro computer come uno di quei vecchi armadi che fungevano da archivio negli
scantinati degli uffici pubblici. Decine e decine di metri di scaffalature alte fino al
soffitto. Su ogni scaffalatura una serie di cartelle con il laccio, all'interno delle quali
sono strette un certo numero di cartelline in cartoncino e dentro a queste ultime sono
conservati i documenti.
Come fare per ritrovare la lettera inviata al signor Gualtiero Rossi della omonima
ditta? Semplice. L'usciere consulta il suo schedario e vi da le indicazioni giuste:
andare alla fila M, trovare il settore 13, salire al ripiano 5, aprire la cartella
"M/13/5/10", prendere la cartellina con sopra scritto "Pratica Ditta Rossi Gualtiero",
aprirla e leggere la lettera siglata "M/13/5/10/prot. Rossi/75A".
Senza l'usciere e senza il suo schedario, l'esito della ricerca sarebbe stato
probabilmente negativo, oltre a farci sprecare un considerevole periodo di tempo a
cercare su scaffali impolveratissimi. Se poi non si fosse nemmeno usato un sistema
di numerazione per le file, i settori, i ripiani e le cartelle, sarebbe stata certamente
un'impresa vana.
Il sistema operativo è un usciere sempre efficiente, mentre lo schedario infallibile è ll
nostro stesso disco il quale contiene, non solo i dati, ma anche il loro elenco.
I diversi sistemi operativi, pur con lo stesso fine e con lo stesso risultati, hanno scelto
similitudini differenti per descrivere il proprio sistema di archiviazione. Nel DOS
viene chiamato ad albero, nel MacOS si parla di cartelline.
Il DOS crea un archivio centrale e principale del disco, detto root directory. In questa
radice sono depositati i file principali del sistema, e da qui dipartono le diversi
componenti dell'albero, ognuna dei quali chiamato subdirectory. Ciascuna
21
subdirectory può contenere files di dati o programmi, ma soprattutto può dare origini
ad altre ramificazioni, ad altre subdirectory.
Le subdirectory rappresentano i settori, i livelli, le cartelle e le cartelline del nostro
immaginario archivio. Si possono creare fino a 512 subdirectory nella root directory,
e fino 512 subdirectory in ciascuna subdirectory. Riandando al nostro esempio,
l'archivio può avere 512 scaffalature, ognuna suddivisa in 512 settori, ciascuno con
512 livelli, ognuno dei quali con 512 cartelle che contengono 512 cartelline che
contengono 512 cartelline che contengono 512... un bel po' di spazio!
Il Mac/Os mostra visivamente, all'interno del disco rigido, oltre ai file di dati ed ai
programmi, della cartelline. All'interno di queste cartelline, una volta aperte,
troviamo altre cartelline, insieme ai file, ed ancora altre cartelline. La suddivisione
consentita dal Mac/Os in cartelline non ha limite, se non quello fisico del disco.
Con tutte queste scaffalature, cartelle e cartelline, se l'usciere non è in gamba,
schedario fatto con cura e l'organizzazione delle scaffalature ben fatta, abbiamo
buone probabilità di non riuscire più a trovare la lettera alla ditta Gualtiero Rossi.
L'usciere, non c'è dubbio, è abile e sveglio: è il sistema operativo; e sullo schedario
non abbiamo problemi: lo gestisce il sistema direttamente sul disco. I guai iniziano
per l'organizzazione delle scaffalature.
Si, perché qui dovete provvedere voi.
Una strategia per l'organizzazione
La migliore organizzazione del disco è quella che corrisponde ad una suddivisione
logica. Se esiste uno schema ben chiaro, la ricerca di un file sarà facilitata. Non sarà
necessario ricordare a memoria esattamente la path, ma basterà ricostruirla secondo
logica.
Sono due le alternative. Possiamo suddividere i file secondo la natura del programma
con cui abbiamo creati, oppure possiamo raggrupparli per argomento.
Nel primo caso avremo tante subdirectory quanti programmi utilizziamo, ed al suo
interno altre eventuali subdirectory più specifiche. Ecco un esempio:
Disco rigido
|
|-- WORDPROC
| |
| |-- LETTERE
| |-- BOZZE
| |-- RELAZIONI
| |-- CIRCOLARI
| |-- APPUNTI
|
|-- DATABASE
| |
| |-- IND CLIENTI
| |-- IND FORNITO
| |-- MAGAZCARIC
| |-- MAGAZSCARIC
| |-- MAGAINVENTA
|
|-- SPREADSH
| |
22
|
|
|
|
|
|
|
|-- FATTURE
|-- PRIMA NOTA
|-- CONTOCORREN
|-- REGIRPEG
|-- REG.IVA
|-- RIT.INPS
|-- RIT.IRPEF
Questo tipo di struttura prevede una subdirectory per i file di word processing, una
per gli archivi del data base ed una terza per i fogli di calcolo dello spreadsheet.
All'inizio questo tipo di gerarchia funziona bene. E' facile trovare un documento,
basta ricordarsi con quale programma è stato realizzato e cercare nell'apposita
subdirectory.
Ci sono però due controindicazioni.
I documenti correlati sono distanti fa loro. Le lettere ai clienti, i listini di vendita, il
data base con le etichette, il conto delle vendite sono sparsi per tutto il disco.
Alcuni documenti vengono elaborati con più programmi. Bisognerà decidere e poi
ricordarsi quale dei due è preminente.
Ed ecco un esempio di organizzazione per argomento:
Disco rigido
|
|-- CLIENTI
| |
| |-- LETTERE
| |-- FATTURE
| |-- AVVISI
| |-- SOLLECITI
| |-- ETICHETTE
|
|-- FORNITORI
| |
| |-- LETTERE
| |-- PAGAMENTI
| |-- AVVISI
| |-- ORDINI
| |-- ETICHETTE
|
|-- CONTABILITA
| |
| |-- FATTURE
| |-- PRIMNOTA
| |-- CONTOCORREN
| |
| |-- RITENUTE
| | |-- INPS
| | |-- IRPEF
| | |-- DICHIARAZIO
| |
| |-- REGISTRI
| | |-- IRPEG
23
| | |-- IVA
|
|-- MAGAZZINO
| |
| |-- CARICO
| |-- SCARICO
| |-- INVENTARIO
Con questa impostazione è più facile rintracciare documenti correlati, come una
lettera ed il listino che vi abbiamo allegato, ma è più complessa la struttura che
diamo al disco, e quindi più complicata la ricerca.
Non esiste una organizzazione ideale dei file. L'importante è che corrisponda al
vostro modo di lavorare, alla vostra logica. Immaginatevi di ritornare, dopo un mese
di vacanze, davanti al vostro computer. Dovreste essere in grado di orizzontarvi
perfettamente tra le subdirectory come farete fra le stanze di casa vostra.
Può anche capitare che, in vostra assenza, un vostro collega abbia la necessità di
lavorare con il vostro computer. La vostra organizzazione non deve essere troppo
astrusa, quindi, ed il vostro modo di denominare le subdirectory ed i documenti deve
essere il meno criptica possibile.
E' necessario fare molta attenzione alla denominazione dei file, al loro spostamento
ed alle copie, per evitare che un nuovo file ne cancelli uno vecchio perché ne ha lo
stesso nome. Una caratteristica di tutti i sistemi operativi, infatti, è quella di non
consentire che due file, all'interno della stessa subdirectory, o cartellina, abbiano lo
stesso nome. Ed è logico, visto che il sistema operativo non ha alcun sistema per
distinguerli se non con il nome.
Tuttavia i sistemi operativi etichettano il file, alla creazione od alla modifica, con la
data e l'ora corrente. Quasi sempre è lo stesso sistema operativo che informa l'utente
di queste date quando viene chiesto l'elenco dei file, oppure quando si effettua una
spostamento di un file in una cartellina che già contiene un file con lo stesso nome.
Ma se questo può servirci per identificare un file, o per sapere quale delle due
versioni di uno stesso documento sia la più recente, non può permettere la
coesistenza di due file con lo stesso nome, anche se creati o modificati in data
diversa. Si tratta di una scelta fondamentale e strategica, perché altrimenti il
computer continuerebbe a registrare senza mai sostituire. Tutte le versioni che
registriamo di una lettera via via che la scriviamo, la correggiamo, la modifichiamo,
esisterebbero ancora tutte insieme provocando confusione e riempendo in breve
tempo anche il disco rigido più capace.
Il suggerimento che ci da il sistema operativo è il più banale. Se vogliamo avere
versioni diverse di uno stesso documento, basta registrarle con nomi diversi. Basta
aggiungere un "1" od un "2", un "bis", o proprio un altro nome.
In ogni caso dovremo attribuire un nome ad un file in modo che possa essere
facilmente identificato, che non possa creare equivoci sulla sua identità o con altri
documenti. Chiamare "Giovanni" una relazione al vostro capoufficio può anche
andare bene, ma non se lui si chiama Vittorio. Registrare come "Lettera" una lettera,
"Bozza" una bozza ed "Appunto" un appunto, vuol non sapere più di cosa si tratta,
ma soprattutto cancellarlo al primo documento dello stesso tipo (e con lo stesso
nome) che si crea.
Purtroppo alcuni sistemi operativi, come il DOS, hanno delle limitazioni di
lunghezza nel nome dei file. Il DOS permette solo undici lettere. Solo otto, però,
24
costituiscono il nome vero e proprio, mentre le altre tre, chiamate estensione e
separate dalla prima parte da un punto, vengono spesso riservati al programma con il
quale avete generato il documento.
Eccoci allora tentati di sintetizzare. Nascono nomi come "LettaMil", come
"RelazCap", come "DicIrpMi", che possono portare ad equivoci se non si sono
precedentemente organizzati in una buona struttura gerarchica. "LettaMil" potrebbe
essere una lettera alla filiale di Milano se nella subdirectory "FiliaMilano", ma anche
una lettera a Milena se nella subdirectory "Personale".
L'organizzazione delle informazioni nel vostro disco rigido deve:

consentire l'immediata catalogazione di un documento, senza nutrire dubbi su
quale subdirectory lo debba ospitare;

facilitare la ricerca di un documento anche a distanza di tempo e fra
documenti simili;

corrispondere al modo personale di organizzarsi l'ambiente di lavoro, per una
maggiore efficienza;

permettere anche ad altri utenti di lavorare;

evitare equivoci fra documenti dal nome uguale o simile.
I nomi dei file devono:

esprimerne sinteticamente il contenuto;

impedirne la cancellazione durante la copia o gli spostamenti;

essere ben specifici ed il meno possibile generici;

prevedere un espediente per distinguere diverse versioni dello stesso
documento.
Guasti, assistenza e crimini
La vita tecnologica di un computer è breve. Nel giro di due o tre anni il computer che
avete acquistato potrebbe essere fuori produzione, rimpiazzato da un modello più
potente e di minor costo. Non è un buon motivo per buttarlo via al primo guasto. Il
costo del computer, delle sue periferiche e dei programmi, rappresenta spesso un
notevole investimento, e deve essere tutelato il più possibile.
Come ogni altro prodotto, i computer godono di una garanzia di un anno
dall'acquisto, garanzia che spesso comprende i pezzi di ricambio ma non l'intervento
del tecnico ed il trasporto del computer. Molto spesso le periferiche, soprattutto le
più delicate come gli scanner, vengono garantite solo per pochi mesi, spesso sei, a
volte tre ma anche uno solo.
I costi di riparazione di questo tipo di apparecchiature sono molto alti: spesso due o
tre interventi superano il costo della stessa macchina. Il che è giustificato da una
parte dal fatto che si tratta di interventi che richiedono l'opera di specialisti, e
dall'altra che i pezzi di ricambio hanno spesso un unico fornitore.
Inoltre le tecnologie costruttive odierne, di tipo modulare, impediscono il piccolo
25
intervento che, con una sciocchezza, risolve il guasto. I componenti sono spesso
montati in modo inscindibile l'uno dall'altro ed il tecnico sostituisce l'intero modulo.
Se si considera che un computer è costituito da una sola scheda madre, un
trasformatore, un disco rigido ed un floppy, bastano quattro guasti per sostituire
l'intero computer, con un costo più che proporzionato.
Nell'acquistare un computer od una qualsiasi altra apparecchiatura accessoria è
indispensabile pretendere la garanzia di un anno. In caso contrario, è preferibile
scegliere un altro modello.
L'assistenza
Bisogna distinguere fra garanzia ed assistenza. Il computer ha la regolare garanzia di
un anno, ma se il produttore, il distributore ed il rivenditore non sono in grado di
garantire un servizio tecnico di assistenza efficiente, la garanzia è inutile.
I guasti che avvengono in un computer sono bene individuabili e velocemente
riparabili, ma anche il più piccolo può paralizzare il lavoro. Un'automobile può
viaggiare anche se il tergicristalli non funziona od il riscaldamento è fuori uso, ma i
componenti di un computer devono essere assolutamente tutti in piena salute. Basta
che si rompa un tasto della tastiera, od un piedino della porta seriale, oppure che il
connettore della porta video faccia un falso contatto, per rendere il computer
inutilizzabile. Spesso il malfunzionamento viene identificato dagli autotest che
avvengo all'accensione, ed il computer rifiuta addirittura di entrare in funzione.
Una riparazione può essere questione di ore, se il laboratorio di assistenza è
efficiente e se i componenti sono disponibili, oppure mesi, se il laboratorio è
inefficiente o semplicemente non esiste ed il rivenditore è costretto a spedire il
computer guasto al produttore.
Acquistando un computer, bisogna accertarsi che il rivenditore disponga di un
laboratorio di riparazione ben fornito di componenti e di tecnici, oppure che sia in
grado di fornire un elenco di laboratori presso cui sia possibile recarsi per le
riparazioni in garanzia.
All'atto dell'acquisto è possibile, in alcuni casi, sottoscrivere un contratto di
assistenza che copre da ogni costo, compreso quello di intervento, e che prevede la
riparazione a domicilio o con il trasporto gratuito. Questo tipo di garanzia prevede
anche che l'intervento del tecnico venga effettuato entro un tempo limite. Nel caso
che l'apparecchiatura non possa essere subito riparata, alcuni di questi contratti
garantiscono il noleggio gratuito di una apparecchiatura equivalente per tutto il
periodo in cui la vostra sarà inutilizzabile.
Un contratto di assistenza a pagamento può essere stipulato sia durante il corso della
garanzia gratuita che alla sua scadenza. Il suo costo sarà proporzionale al valore a
nuovo della macchina e dipenderà dal tipo di copertura prevista.
L'origine dei guasti
Tranne difetti di fabbricazione, che in genere si rivelano subito, sin dai primi attimi
di lavoro, un computer non è molto soggetto a guasti. Le parti meccaniche sono
molto limitate e non sono soggette a logoramento. La parte elettronica, se non viene
26
sottoposta a traumi come cadute, eccessivo calore o sbalzi di corrente, ha un periodo
di vita praticamente illimitato.
L'eccesso di calore è una causa frequente di malfunzionamenti temporanei o di
guasti di componenti elettronici. Il manuale riporta sempre un arco di temperatura
adatta al computer, ma è necessario distinguere fra la temperatura ambientale della
stanza nella quale si trova l'apparecchiatura e la temperatura all'interno del computer.
Mentre la prima è ben al di sotto dei limiti previsti, la seconda può facilmente
innalzarsi oltre la soglia per tutta una serie di fattori:
- sul computer sono presenti delle fessure che servono da prese di aerazione per i
componenti interni. Appoggiare libri al computer, od altri oggetti, può provocare la
chiusura di queste prese bloccando il ricambio d'aria;
- il monitor produce una notevole quantità di calore: è sempre consigliabile
utilizzarlo con un piedistallo non solo per comodità, ma perché si crea uno spazio fra
computer e monitor nel quale il calore si disperde;
- polvere, cenere, fumo ed altri sporchi penetrano all'interno del computer attraverso
le fessure di aerazione: a computer spento, è consigliabile aprire il coperchio e pulire
delicatamente la scheda madre e tutti i componenti almeno una volta l'anno o pim
frequentemente, se necessario, con gli stessi strumenti che si utilizzano per pulire le
macchine fotografiche;
- l'interno del computer, quasi vuoto al momento dell'acquisto, può rapidamente
affollarsi di schede: ciò non solo blocca la normale convezione dell'aria, ma provoca
calore sia per i componenti stessi che per l'alimentatore/trasformatore, sottoposto a
superlavoro: può essere installata una ventola interna di raffreddamento, oltre ad un
alimentatore/trasformatore con maggiore capacità.
Gli sbalzi di corrente che provocano guasti non sono quelli che provengono dalla
linea elettrica, che viene regolata dall'alimentatore/trasformatore, ma dagli altri
collegamenti con schede e periferiche.
Negli slot in cui vengono inserite le schede e nei connettori seriali e paralleli, nonché
in quelli per il monitor e la tastiera, sono spesso presenti dei contatti che portano
corrente elettrica. L'intensità è bassa, ma l'inserire una scheda od un cavo mentre il
computer è acceso, e quindi è presente la corrente nei contatti, può provocare seri
danni sia ai componenti della scheda madre sia a quelli della scheda.
Oltre allo sbalzo di corrente, il danno può essere provocato anche dal falso contatto
che si può provocare, con un maldestro inserimento, fra parti dedicate al traffico dei
dati. Portare una corrente di 12 volts in una linea dati significa danneggiare
definitivamente i componenti elettronici. Nel gergo dei riparatori, si dice che la
scheda è stata "fritta", o "bruciata". Allegoria che non è molto distante dal vero.
Ogni inserimento o sconnesione di schede o cavi deve sempre avvenire a computer
spento, così come devono essere sempre spente anche le apparecchiature collegate.
L'inserimento di schede nella scheda madre o la loro estrazione sono spesso causa di
danni se non effettuate con ogni cura.
La prima precauzione da prendere, dopo aver spento il computer, è quella di
scaricare l'energia statica che potrebbe essere presente sul corpo. Se venisse
trasmessa ai componenti della scheda, attraverso le mani, la piccola scarica elettrica
danneggerebbe i delicati circuiti interni delle memorie ROM e RAM. Ogni volta che
si tocca una scheda è necessario toccare prima il contenitore in ferro
dell'alimentatore/trasformatore per scaricarsi.
La seconda precauzione è quella di usare sempre molta delicatezza. Una inserzione
27
forzata od una estrazione violenta possono provocare rotture o incrinature nella
sottile superficie delle schede, con la conseguente irrimediabile interruzione dei
circuiti stampati.
Le precauzioni
Infine alcune indicazioni per una corretta sistemazione ambientale del computer:
- non deve mai trovarsi in vicinanza di fonti di calore, come termosifoni o stufe;
- non deve mai essere direttamente esposto alla luce del sole;
- non deve mai essere in vicinanza di zone umide o con possibilità si schizzi d'acqua;
- i cavi devono essere raggruppati e fissati al tavolo, non devono rimanere penzolanti
o arrotolati sul pavimento in zone di passaggio;
- intorno ai lati del computer non devono esserci oggetti, il computer deve essere ad
almeno dieci centimetri da pareti o scaffalature;
- nel raggio di mezzo metro dal computer non dovrebbero esserci altre
apparecchiature elettriche come fotocopiatrici, televisori, elettrodomestici;
- la linea elettrica che alimenta il computer non dovrebbe essere in comune con
apparecchiature che provochino grossi consumi improvvisi come luci al neon,
fotocopiatrici, elettrodomestici.
In caso di guasto
Innanzi tutto è molto probabile che non si tratti di un guasto vero e proprio, bensì di
un cattivo funzionamento per cause hardware o software.
Una periferica che abbia bisogno di una particolare procedura di installazione non
può funzionare se non la si effettua correttamente, o se in seguiti si cancellano i file
di cui ha bisogno per funzionare. Un tentativo da fare è di effettuare una nuova
installazione del software richiesto dalla periferica.
Una periferica che funziona con un programma, non è detto che funzioni con un
programma che è simile, ma differisce nella gestione delle periferiche. Se
l'apparecchiatura con alcuni programmi funziona e con altri no, si tratta di un
evidente caso di incompatibilità.
Un cavo male collegato o con dei contatti instabili può provocare il
malfunzionamento saltuario o permanente della periferica in uno od in entrambi i
sensi della trasmissione dei dati. Il computer può trasmettere alla periferica, ma non
può ricevere. E' necessario controllare l'inserimento corretto dei cavi e se non siano
rotti in qualche punto.
Lo stesso inconveniente può essere dovuto allo spostamento di una scheda nello slot
a causa di un urto al computer.
Gli aggiornamenti del software, sotto questo punto di vista, sono pericolosissimi. Un
programma può smettere di funzionare perché è stato aggiornato il sistema operativo,
ma non ancora il programma. Stessa situazione quando è il programma ad essere
stato aggiornato, ma la versione del sistema operativo è vecchia.
Il verificarsi di malfunzionamenti subito dopo l'aggiunta di una scheda nuova, pone
un grave dubbio sull'efficienza della stessa. La scheda può essere innocente, e la
colpa derivare da un programma vecchio ed incompatibile.
L'abitudine di munire il computer di piccole utilità che occupano piccole porzioni di
memoria e che visualizzano l'ora sul monitor, ne cambiano lo schermo durante i
momenti di pausa, esamino i dischi alla ricerca di virus, e così via, può essere la
28
causa di molti malfunzionamenti altrimenti inesplicabili. In questo caso è necessario
eliminare queste utilità una per una, fino ad individuare la colpevole. Spesso non è il
programmino in sé ad essere la causa dell'apparente guasto, ma semplicemente
l'abbinamento di due o più che si ritrovano così in conflitto.
In caso di guasti o malfunzionamenti è sempre consigliabile, prima di chiamare il
tecnico, verificare queste possibilità, compreso il corretto inserimento della spina
nella presa della corrente elettrica. Non sono rari gli utenti che chiamano il tecnico
senza accorgersi che è andata via la luce all'intero quartiere.
E' comunque necessario cercare di comprendere bene in quale circostanze si verifica
il malfunzionamento. In particolare:
- quale sistema operativo è presente e con quale versione;
- quale programma è in esecuzione;
- quale programma abbiamo utilizzato prima di questo;
- se vi sono programmi di utilità residenti in memoria, e quali;
- quali sono le periferiche accese e quali quelle spente;
- quali sono le schede presenti negli slot del computer;
- da quanto tempo è acceso il computer, da quanto tempo vi stiamo lavorando o per
quanto tempo è rimasto inattivo.
La fonte del guaio potrebbe essere individuata cercando di replicare il
malfunzionamento variando una per volta le circostanze originarie.
Tenete comunque presente che i tecnici addetti all'assistenza ed alla riparazione di
computer diffidano della capacità di un utente ad usare un personal. La prima ipotesi
che viene fatta è sempre quella di un errore dell'utente, e l'ultima è sempre quella di
un guasto dell'hardware.
I virus
I virus del computer sono programmi realizzati per divertimento, il cui unico scopo è
quello di danneggiare o rendere inefficiente un computer. Dopo i molti articoli
pubblicati sui giornali, un utente inesperto, che si trovi davanti ad un
malfunzionamento per lui incomprensibile, pensa immediatamente all'esistenza di un
virus.
Niente di più errato. Un virus può avere come obiettivo la distruzione di tutto quanto
sia registrato sul disco rigido, oppure di rallentare tutte le attività del computer.
Quello che è sicuro è che un virus non lascia palesare la sua presenza con molta
facilità.
Il danno che egli provoca deve essere immediato e totale, oppure graduale ed
inavvertibile. Un virus che provocasse un malfunzionamento evidente, ma parziale,
tradirebbe la sua presenza senza raggiungere nessun obiettivo definitivo.
Non è facile identificare la presenza di un virus, a meno che non si tratti di un virus
"dimostrativo" che si limita a far rimbalzare una pallina sullo schermo. I virus "seri"
possono essere rintracciati solamente con appositi programmi, chiamati antivirus,
che esaminano i codici di ogni programma presente nel disco alla ricerca di
particolari sequenze di dati.
I virus conosciuti si possono dividere in categorie:
- bombe logiche: si installano nel sistema ed attendono una particolare situazione, ad
esempio la cancellazione di un nome dal programma degli stipendi per cancellare
29
tutti i dati amministrativi e fiscali (tipica ritorsione di programmatori che sospettano
un imminente licenziamento);
- bombe a tempo: la distruzione degli archivi avviene allo scadere di un determinato
periodo od in una data precisa (alcuni di questi virus sono stati utilizzati a scopi
politici);
- cavalli di troia: piccoli programmi che sembrano svolgere una attività utile, ma che
di nascosto ostacolano e rallentano le attività del computer, oppure ne alterano i dati;
- infestanti: si diffondono da computer a computer, attraverso i collegamenti in rete,
non avendo lo scopo diretto di danneggiare i computer, ma solo di riprodursi con la
maggiore velocità possibile, rendendo ben presto impossibile il normale lavoro;
- back door: cioè porta di servizio, che permettono l'aggiramento delle normali
procedure di sicurezza e l'ingresso senza autorizzazione in archivi di dati riservati
importanti per l'azienda;
- virus: propriamente detti, che consistono in una sequenza di codici che si
autoinstallano in determinati programmi al posto del codice originale e che, alla
prima occasione, infettano altri programmi.
Alcuni di questi virus hanno semplicemente una origine dolosa, ed i danni che
provocano non apportano alcun vantaggio al programmatore che lo ha creato. Altri,
soprattutto i back door, hanno una utilizzazione esclusivamente criminale a fini di
spionaggio, di ricatto, di furto di informazioni, o di manipolazione delle stesse per
trarne vantaggio.
Le principali precauzioni che possono essere prese per prevenire l'attacco da parte di
un virus sono:
- proteggere il computer con un programma antivirus che esamina tutte le attività
cercando e segnalando quelle "sospette";
- esaminare periodicamente il disco ed i dischetti con un programma antivirus che
rintracci i dati caratteristici dei virus conosciuti;
- impedire che persone estranee lavorino con il nostro computer utilizzando loro
dischetti e loro programmi;
- non utilizzare mai nessun programma, originale o meno, acquistato o preso in
visione, senza averlo fatto esaminare dal programma antivirus;
- ricevendo un dischetto da un amico o da un collaboratore, inserirlo nel drive del
computer solamente se è attiva la protezione antivirus ed esaminando
immediatamente il dischetto;
- portando propri dischetti per lavorare con il computer di un altro utente, avere cura
di tenerli costantemente protetti dalla scrittura.
Con questo tipo di precauzioni è molto difficile che un virus riesca ad entrare nel
vostro computer per danneggiarlo.
Il crimine informatico
Un capitolo a parte meriterebbe la sicurezza informatica, problema particolarmente
sentito nel mondo aziendale. Possiamo così dividere gli atti dolosi che hanno a che
vedere con i computer:
- furto delle informazioni contenute nel computer;
- abuso del computer per trarre profitto da operazioni del lavoro ordinario;
- intrusione in sistemi informativi per utilizzarne i servizi;
30
- sabotaggio del computer o delle informazioni contenute;
- furto di dispositivi hardware.
Un esempio del primo tipo di crimine informatico è quello dell'impiegato che,
avendo la possibilità di accedere ad un nuovo progetto industriale, ne vende una
copia alla concorrenza.
Nel secondo caso cade il bancario che detrae poche lire per ognuna delle centinaia di
operazioni bancarie che avvengono ogni giorno in un centro di calcolo di un istituto
finanziario, immettendole sul proprio conto.
L'utilizzo di password trafugate è all'origine del terzo tipo di azione dolosa. Un
individuo accede, tramite la parola d'ordine di un ignaro utente regolare, ad un
servizio telematico a pagamento, come il Videotel, e ne utilizza i servizi facendone
addebitare i costi sul nominativo legale. In questo caso il criminale non trae vantaggi
concreti dalla sua azione, per lo meno non in termini monetari.
Ugualmente poco redditivo è il quarto caso di crimine informatico, usualmente
praticato da impiegati scontenti o sul punto di essere licenziati. I danni provocati
possono essere diretti, come il guasto provocato a qualche apparecchiatura, o
indiretti. E' di questa specie l'immissione di un virus nei computer aziendali, oppure
una attività di danneggiamento delle informazioni cancellando o alterando quelle
esistenti o creandone una certa quantità di false.
Meno raro di quello che si possa pensare, il terzo tipo di crimine. Certo è ben
difficile che un impiegato possa uscire dall'ufficio con un personal sotto il braccio,
ma la gran parte delle schede è comodamente occultabile in una cartellina per
documenti. Per non parlare dei dischetti, dei mouse o dei cavi, tutti abbastanza
piccoli da entrare in una tasca di soprabito.
In quest'ultimo tipo di crimine rientra anche la copiatura del software originale.
L'azienda non ne risente un danno diretto, ma l'impiegato che copia un software
originale per utilizzarlo a casa può provocarne uno anche più grave.
All'atto dell'installazione dei programmi viene richiesta la digitazione del numero di
serie, che viene così registrato nel codice stesso del programma. Lo stesso numero è
a conoscenza del produttore o del distributore ufficiale tramite la fatturazione o
l'invio della scheda per la garanzia, l'assistenza e le future offerte di aggiornamento a
prezzo scontato. Se il dipendente copia il programma in ufficio e poi, come spesso
capita, lo scambia con altri che a loro volta lo scambiano di nuovo, il programma
potrebbe finire nella mani "sbagliate" e, tramite l'individuazione del numero di serie,
portare a perquisizioni e cause per danni.
Il backup
Quale che sia l'origine del nostro problema, guasto di hardware, malfunzionamento
di un software, caduta dell'energia elettrica, virus o sabotaggio, la conclusione è che
il computer è inutilizzabile e molti giorni di lavoro sono ormai persi. A meno che
non sia stato fatto un backup, cioè una copia dell'intero archivio o delle parti più
importanti.
L'abitudine di effettuare backup frequenti dell'hard disk presente all'interno del
computer può essere noiosa, ma è l'unico stratagemma che ci consente di recuperare
il nostro lavoro nel caso che il computer si guastasse in modo drastico.
Esistono programmi per effettuare il backup in modo completamente automatico, su
un singolo computer o su una rete di personal, in ore non lavorative oppure
parallelamente al lavoro ordinario. L'effettuazione di una copia di tutti i documenti, o
almeno di quelli importanti o di quelli nuovi o modificati, può essere un impegno
31
noioso e, al 99 per cento delle volte inutile. Ma quando si verifica un "incidente",
come il guasto di un disco rigido, la cancellazione fortuita di alcuni documenti o
l'infezione da parte di un virus, non avere una copia dei programmi e dei documenti
vuol dire averli persi definitivamente.
Il backup deve essere studiato in modo strategico, tale da intralciare il lavoro
ordinario il meno possibile, ma da essere realmente efficace in caso di necessità.
Esistono due tipi di backup:
- backup completo, quando si effettua una copia totale di un disco rigido;
- backup incrementale, quando si copiano esclusivamente i documenti nuovi e quelli
modificati.
Quello completo richiede molto più tempo di quello incrementale, ma effettua una
copia sicuramente esatta del disco rigido. Del resto, se i dati contenuti nel disco
rigido non subiscono un totale cambiamento ogni giorno, è inutile effettuarne una
copia completa quasi identica a quella precedente. Una strategia di backup prevede
l'alternanza dei due tipi.
Si fa, ad intervalli stabiliti, un backup completo del disco rigido. Nell'intervallo di
tempo fra due backup completi, si fanno tanti backup incrementali. Nel momento in
cui il disco rigido si rovinasse, sarebbe sufficiente recuperare i dati totali dal backup
completo e poi ristabilire le modifiche recuperando i backup incrementali.
La successione nel tempo può essere:
- un backup completo al mese ed uno incrementale alla settimana, quando il ricambio
di dati nel computer sia modesto;
- un backup completo alla settimana ed uno incrementale al giorno, quando i dati del
disco rigido subiscano aggiornamenti continui.
I backup incrementali devono essere conservati solamente per il periodo di tempo da
un backup completo all'altro, ma per questi ultimi il discorso cambia. Se si
archiviano sistematicamente copie dei documenti elaborati o degli archivi di dati su
dischi rimovibili o nastri, allora i backup completi possono essere cancellati dopo un
certo periodo di prudenza. Altrimenti essi sono l'unica possibilità di recupero di
documenti a dati vecchi di mesi od anni, e vanno conservati permanentemente.
Un documento conservato in un backup completo effettuato su nastro, per quanto al
sicuro, richiede molto tempo per essere trovato e recuperato. Se questo tipo di
consultazione è frequente, è consigliabile archiviare copie singole dei documenti in
modo organizzato, creando una biblioteca su dischi rimovibili di grande capacità,
ottici o magnetici.
Per l'uso privato o professionale, può essere sufficiente registrare i documenti non
più usati su normali dischetti, magari in doppia copia su dischetti diversi,
conservandoli in luoghi separati.
Le unità di memoria di massa ideali per l'effettuazione di backup, sia completi che
incrementali, sono i nastri magnetici. Hanno un costo limitato, una capacità molto
grande ed una buona velocità in registrazione. L'unico inconveniente è che
l'eventuale recupero di un documento avviene in tempi molto lenti.
Effettuare backup con rischi rigidi rimovibili, o con dischi ottici, consente un
recupero istantaneo della copia di un documento, ma costringe ad utilizzare una unità
di memoria di massa molto costosa.
L'uso di normali dischi o dischetti floppy è del tutto sconsigliato per i backup.
L'operazione sarebbe lunghissima e molto costosa, dovendo utilizzare molte decine,
32
se non centinaia, di floppy.
La combinazione ideale vede:
- una unità a nastri per i backup completi, conservabili così anche per anni;
- una unità a dischi rigidi rimovibili per i backup incrementali temporanei;
- una unità a dischi ottici scrivibili o a dischi rigidi rimovibili per l'archiviazione
definitiva di documenti importanti di cui è probabile la consultazione.
Programmi di protezione
Esistono piccoli programmi di salvaguardia delle informazioni contenute nel disco
rigido di ciascun computer. Questo software di utilità lavora in due tempi.
Un programma è sempre residente in memoria, e si incarica di tenere una copia della
mappa dei documenti contenuti nel disco rigido. La mappa può essere
periodicamente registrata su un dischetto o su un altro disco rigido.
Un secondo programma, in caso di una distruzione della mappa originale del disco o
di una formattazione parziale del disco, è in grado di ricostruire tutto il contenuto del
disco, od almeno una parte, utilizzando le informazioni contenute nella copia della
mappa. Lo stesso programma può anche ricostruire un singolo documento, cancellato
per errore.
Entrambe le operazioni di salvataggio sono però soggette a fallimento e non possono
dare alcuna garanzia di recupero. Sono un valido aiuto per rimediare ai danni
provocati dalla distrazione o dal caso, ma non possono sostituire una costante
strategia di backup.
Le controindicazioni alla protezione
La strategia di protezione contro guasti, virus e crimini può anche presentare delle
controindicazioni.
Facciamo un esempio. Abbiamo paura che i dati del nostro computer vengano
sottratti. Acquistiamo un apposito programma e proteggiamo l'accesso all'archivio
con una parola d'ordine. Una volta inserita la parola d'ordine, nessuno può più
lavorare con quei dati.
Bene, ma si possono verificare i casi seguenti:
- l'utente installa il programma e, provandolo, inserisce una parola d'ordine per errore
e non riesce più a ricordarla. L'archivio è perso. Nessuno, in nessun modo, può
recuperare la parola d'ordine;
- l'utente ha installato la parola d'ordine e la ricorda, ma ha paura di non ricordarla e
quindi la scrive su una agenda che tiene sul tavolo. Non solo l'archivio potrà essere
letto facilmente, semplicemente aprendo l'agenda e trovando la parola d'ordine, ma
l'utente continuerà ad inserire dati confidenziali convinto di essere al sicuro;
- l'utente ha installato la parola d'ordine, sa di non doverla scrivere in posti
facilmente accessibili, e quindi ne sceglie una facilmente ricordabile come il nome
della moglie, della figlia, del cane, la targa dell'auto, il numero di telefono di casa, il
soprannome con cui lo chiama la moglie. Sono queste le prime parole d'ordine che
un criminale tenta di inserire, ed anche ad inserirle all'inverso od anagrammate;
33
- l'utente ha installato la parola d'ordine, la ricorda benissimo e l'usa correttamente.
Un giorno, però, da le dimissioni e se ne va senza lasciarla in consegna a nessuno.
In questi casi la soluzione si rivela peggiore del male. Anche la psicosi del virus può
danneggiare od ostacolare il lavoro.
E' molto frequente vedere computer con installati appositi programmi antivirus che
effettuano automaticamente un esame approfondito di ogni dischetto che vi viene
inserito. Controllo molto utile, ma se i dischetti sono sempre rimasti nelle mani dello
stesso utilizzatore del computer o di suoi colleghi ugualmente protetti, a cosa serve
effettuare più volte lo stesso controllo se non a perdere tempo? Meglio, allora,
effettuare il controllo espressamente per i soli dischetti che provengono da estranei.
34
Assemblare il proprio personal
A fianco dei modelli di marche più o meno conosciute, molti rivenditori di computer
offrono in vendita personal “assemblati” a prezzi più economici rispetto ai computer
di marca.
Ma cosa vuol dire “PC assemblato”? Ci si può fidare, conviene, quali sono i risvolti
negativi?
Un computer assemblato è una macchina (desk o tower, non esistono portatili
assemblati) che il rivenditore stesso non ha acquistato così com’è, bensì che ha
creato lui stesso assemblando tutti i diversi componenti.
Si sa che un qualsiasi produttore di personal computer, anche le marche più
prestigiose ed importanti, non produce autonomamente quasi nessun componente dei
personal che vende. I diversi componenti vengono acquistati sul mercato
internazionale o, nel migliore dei casi, fatti costruire su specifiche particolari, e
quindi assemblati nelle proprie fabbriche. Un construttore di PC è quindi, in realtà,
un assemblatore di pezzi provenienti da diverse zone del mondo (spesso dall’estremo
oriente).
I componenti principali di un personal sono:

CPU

mother board

RAM

Hard Disk

scheda video

lettore di CD-ROM

lettore di floppy disk

tastiera

mouse

case (contenitore)

alimentatore

cavi di connessione fra i componenti
cui si aggiungono spesso:

scheda audio

scheda SCSI

scheda di rete
La CPU, il processore principale, ad esempio, è prodotto da tre sole società. Anche i
principali produttori di mother board o quelli dei lettori di CD-ROM si contano sulle
dita di due mani. Aprendo il computer e leggendo le marche effettive dei componenti
si può scoprire che due personal di marca diversa e venduti a prezzi differenti, in
35
realtà sono perfettamente identici. Oppure che due esemplari dello stesso modello
della identica marca hanno componenti diversi e di prestazioni differenti.
Può succedere, infatti, che la società ABC, produttrice di personal, utilizzi per i
propri modelli un hard disk della società ZXY. Di fronte ad una maggiore richiesta
del mercato, la società ABC ha bisogno di un numero maggiore di hard disk che però
la società ZXY non ha. ABC si rivolge quindi ad un altro produttore, comprando
hard disk della stessa capacità ma, magari, con una velocità maggiore.
Ecco quindi che due acquirenti dello stesso modello di computer della medesima
marca si possano trovare, a loro insaputa, con hard disk dalle prestazioni differenti.
Uno, più fortunato, ha un hard disk più veloce dell’altro.
E così per le mother board, le schede video, audio...
Per consentire la massima facilità di assemblaggio, le stesse marche di personal
hanno chiesto ai produttori di componenti di standardizzare il più possibile la loro
produzione, proprio per evitare problemi di “shortage”, cioè per evitare che la
mancanza di un singolo componente impedisca l’assemblaggio di migliaia di
computer.
Una fabbrica di componenti può fallire, essere vittima di un incendio, un terremoto,
oppure bloccata da uno sciopero o da un grave guasto nella linea di produzione. La
marca di personal deve essere in grado di reperire, nel più breve tempo, lo stesso tipo
di componente perfettamente compatibile con quello mancante e così assemblare i
personal da vendere.
Qualche hanno fa, l’incendio di un importante produttore di processori di memoria
RAM bloccò parecchie decine di migliaia di personal nelle fabbriche di tutto il
mondo, completi di tutto ma mancanti di RAM!
Essendo possibile comprare i singoli componenti dai grossisti di elettronica,
qualsiasi rivenditore di computer è in grado di assemblare in brevissimo tempo,
anche mezza giornata, il tipo di personal richiesto dal cliente. Basta che questo gli
indichi le esigenze di prestazioni e quali componenti desidera, ed ecco che nasce un
computer “su misura”.
Vantaggi e svantaggi
Il primo vantaggio è ovvio: avere esattamente quello che si vuole, né un Gb di più né
uno di meno. Avere, cioè, una macchina che risponde esattamente alle proprie
esigenze. Non è necessario prendere per forza la scheda sonora stereo, si può
includere un secondo disco rigido per il backup, si può scegliere un lettore di CDROM nuovissimo e velocissimo...
Il secondo vantaggio, non meno importante, è che la somma delle parti costa meno
delle parti sommate.
Se prendiamo le specifiche tecniche di un computer di marca e cerchiamo di
ricostruirlo comprando i singoli componenti con le stesse caratteristiche e della
stessa marca, o di marca equivalente, ci accorgeremo di spendere almeno un terzo di
meno. E’ quella parte del prezzo di vendita destinato alle spese di gestione aziendale
del produttore di computer, al canale di distribuzione ed alla pubblicità.
Lo svantaggio principale è che sul computer che avremo sulla scrivania non compare
una marca ben conosciuta, dotata di un canale di assistenza tecnica. Per eventuali
guasti in garanzia, saremo legati al singolo rivenditore, mentre con un computer di
marca ci potremo rivolgere anche ad un centro di assistenza di un’altra città. Se il
rivenditore chiude, la nostra garanzia non varrà più nulla.
Per cercare di ovviare a questo pericolo, sarà bene chiedere che i singoli componenti
del personal assemblato siano di marca conosciuta, pagando leggermente di più. In
questo modo, quand’anche il rivenditore fosse irreperibile, il disco rigido di marca
XYZ può essere portato a riparare presso i centri di assistenza XYZ. Anche se queste
36
prestazioni in garanzia sono da verificare volta per volta.
Assemblaggio fai-da-te
L’alta standardizzazione ha reso più facile l’assemblaggio dei personal anche alla
singola persona, a patto che abbia tempo e voglia di risparmiare. Comprare i diversi
componenti e assemblare in casa il proprio personal, infatti, porta ad un risparmio di
quasi la metà rispetto all’acquisto di un personal di marca importante, ed almeno un
terzo rispetto ai personal di marche meno conosciute o assemblati da rivenditori.
Apre inoltre la possibilità di effettuare molto più facilmente e rapidamente gli
upgrade, cioè, ad esempio, l’espansione della RAM.
Il lavoro non deve spaventare, in quanto non è più necessario, come una volta,
lavorare di cacciavite e saldatore. I componenti attuali si connettono fra di loro molto
velocemente e non occorre nessuna competenza elettronica, informatica o elettrica.
L’unica cosa importante è comprare i giusti componenti, in modo da non trovarsi con
una mother board sulla quale non si possa montare la CPU e la RAM acquistata.
37
CPU
Occorre partire dalla CPU. Di quale processore abbiamo bisogno? Quale velocità?
Esistono processori di marca Intel (i più famosi e diffusi) e processori compatibili (e
due altri produttori di CPU sono AMD e Cyrix, di recente fuse in un’unica società).
I processori Intel sono di tipo Pentium III, o IV, oppure processori economici
Celeron, mentre i corrispettivi AMD si chiamano Athlon, AthlonXP (noti anche
come K7) e Duron (K6).
Rimandiamo al cap. 2.XX per la descrizione dei processori e delle relative
caratteristiche. Qui facciamo presente che, oltre ad avere diverse prestazioni, questi
processori hanno anche diverse piedinature e richiedono diversi tipi di mother board.
Ma attenzione: il fatto che due processori siano “fisicamente” compatibili, avendo lo
stesso tipo di piedinatura, non vuol dire che possano essere intercambiabili sulla
stessa mother board. Controllate sempre che il processore che intendete acquistare
sia compatibile con la scheda madre che avete a livello di Front Side Bus e di
moltiplicatore, in modo da sfruttatrlo alla frequenza ottimale.
Considerate quindi le prestazioni di cui avete bisogno (operazioni matematiche,
grafiche, multimediali, di rete...). Una volta scelta la CPU adatta (magari anche in
base al prezzo), scegliete la mother board adatta.
Mother board
La mother board deve rispondere alle richieste della CPU, ma a sua volta ha altre
caratteristiche e pone altre condizioni.
Innanzi tutto di spazio: è di tipo ATX o di tipo Baby? Ne dipenderà le dimensioni
della case destinata ad ospitarla.
Su che chip set si basa: per Pentium II, IV, o per Amd?Con che tipo di memorie? E
soprattutto, può ospitare la CPU prescelta, sia come tipo che come velocità?
Le porte sono quasi sempre 2 seriali ed una parallela, almeno due USB e se siete
fortunati una porta FireWire ed i controller sono 2 di tipo EIDE (per hard disk, lettori
di CD-ROM, masterizzatori, unità a nastro...) ed uno FDD (per il lettore di floppy
disk). Nelle mother board più recenti i controller EIDE permettono la connessione di
due unità ciascuno.
Nel montare le periferiche al controller EIDE è necessario verificare le rispettive
velocità delle periferiche se si vogliono montare sullo stesso controller. La velocità
del singolo controller dipende dalla velocità della periferica più lenta. Ecco quindi
che se montiamo un hard disk ed un CD-ROM sullo stesso controller e ci
accorgiamo che l’HD ha prestazioni inferiori al dovuto, è perché questo si deve
adattare al CD-ROM più lento presente nello stesso controller. Se si hanno più di due
periferiche da collegare, conviene montare insieme le due più veloci e lasciare sul
secondo controller la o le periferiche più lente.
Che tipo di slot ha, e quanti? La quantità ed il tipo di slot deve accordarsi con la
quantità di schede da installare.
Quanta memoria RAM vi può essere installata, come valore minimo e massimo? E di
che tipo devono essere le schede RAM? DIMM, DDR oppure i veloci e costosi
moduli RAMBUS? Quale deve essere la velocità, quale la piedinatura, e di quale
tipo?
38
RAM
I moduli di memoria si riconoscono subito fisicamente per la quantità di pin di
connessione: 168 per le DIMM e 184 per le DDR. Questo è il primo requisito fisico
per poter inserire il modulo nella scheda madre.
Il secondo requisito è la frequenza di clock del Front Side Bus, anche se oramai tutte
le Dimm funzionano a 133Mhz.
Come la mother board deve rispondere con esattezza alle richieste della CPU, così i
moduli RAM devono rispondere alle richieste dalla mother board.
Costi
Se consideriamo pari a 100% il costo di un personal assemblato in casa, i costi dei diversi
componenti sono nella seguente proporzione: case e alimentatore 5%; CPU 17,5%; mother
board 12,5%; RAM 10%; HD EIDE 15%; lettore CD-ROM 10%; drive FDD 5%; scheda
audio 5%; scheda video 5%; scheda SCSI 5%; tastiera 7,5%; mouse e cavi 2,5%.
Un personal con le stesse caratteristiche assemblato da un rivenditore costerebbe da 125% a
150% ed un personal di marca da 150% a 200%.
39
Il microprocessore
Chiamato anche CPU, per Central Processing Unity, è l'elemento che determina le
caratteristiche e le prestazioni del computer. Tutta la capacità di calcolo e di
elaborazione sono condensati in questi pochi centimetri quadrati.
I microprocessori vengono catalogati per famiglie, indipendentemente dalle
prestazioni. Appartenere ad una determinata famiglia vuol dire condividere
l'architettura, cioè la struttura logica interna.
In genere il membro più recente della famiglia contiene nella sua architettura quella
dei modelli precedenti, di modo che ne sia l'erede legittimo. Il software che
funzionava con i microprocessori precedenti, funziona anche con il nuovo.
Ogni modello di microprocessore è contrassegnato da una sigla che rappresenta la
famiglia cui appartiene e il suo posto nella famiglia. Abbiamo, ad esempio, la
famiglia di microprocessori 80x86. Derivati dall’8088 a 8 bit, il capostipite è stato il
8086, seguito da 80286, 80386 ed infine da 80486. Il processore successivo della
gamma non si poté chiamare 586 per una questione di marchi registrati, per cui la
generazione successiva si chiamò Pentium, che fu poi aggiornato con le funzionalità
MMX (MultiMedia eXtensions) al quale fece seguito il Pentium Pro (686) e il suo
gemello con le istruzioni MMX Pentium II, poi i Pentium III prodotti con due
forme fisiche e due architetture differenti (SECC, o cartuccia e FCPGA, o socket, a
0,18 e 0,13 micron), in contemporanea ad essi uscirono i Celeron, versioni
economiche derivate dai Pentium II, e infine i Pentium IV desktop e Xeon (per
server). L’ultima generazione di processori Intel è a 64 bit, segue l’architettura IA64
e viene chiamata Itanium. Questa è la famiglia dei microprocessori usati dai
computer DOS compatibili.
I computer Macintosh usano quelli della famiglia 680x0, dal 68000 al 68020, 68030
e 68040. Anche in questo caso la sigla della famiglia viene scritta con una "x" al
posto della quale ciascun modello porta il proprio numero d'ordine. Più questo
numero è alto, maggiori sono le prestazioni del microprocessore. Casualmente, in
queste due famiglie il modello con la "1" non è stato utilizzato in nessun computer.
Caratteristiche tecniche
La velocità di elaborazione viene misurata in MegaHertz, cioè in milioni di cicli al
secondo. Questa però non è l’unico parametro da tenere in considerazione per
valutare le prestazioni di un processore. Quando si legge che un microprocessore ha
una velocità di 800 MHz, vuol dire che compie 800 milioni di cicli al secondo. In
ogni ciclo, un impulso di dati transita fra un contatto e un altro all’interno del
microprocessore. La velocità in cicli al secondo, in MHz, non può però dare una
concreta misura della velocità di un microprocessore. Ogni comando che il
microprocessore deve eseguire richiede, infatti, alcuni cicli per essere portato a
termine. Per molte istruzioni bastano due cicli, mentre alcune ne richiedono alcune
diecine.
Inoltre comandi sono in un linguaggio molto sintetico, chiamato linguaggio
macchina, ma sono pur sempre numerosi. Il 80286 ne ha 120, nel 80386 sono 155 ed
infine sono 250 nel 80486. Ciò complica il lavoro del microprocessore in quanto più
sono i comandi più è complesso il compito di interpretarli.
Un microprocessore che abbia una velocità in MHz doppia di un altro, non è detto
che svolga istruzioni al doppio della velocità. Pur essendo maggiore la velocità del
microprocessore, la sua velocità effettiva di lavoro non è aumentata in modo
proporzionale. Soprattutto se l'architettura interna è meno efficiente, a causa dell'alto
40
numero di comandi o di una concezione qualitativamente inferiore. Oppure il suo
linguaggio macchina richiede un più alto numero di cicli per l'esecuzione di ciascun
comando. Un altro parametro da tenere in considerazione è la frequenza del Front
Side Bus, cioè la frequenza del collegamento tra la memoria RAM e il
microprocessore. Ad ogni ciclo del FSB una “pagina” di dati viene scambiata tra
RAM e processore, pronta ad essere elaborata. Questo parametro, che solitamente
non è pubblicato nei listini, è un parametro legato all'architettura della classe di
processori. Ciò e tanto più vero quando si vanno a confrontare microprocessori
appartenenti a diverse famiglie, quindi con architetture e linguaggi macchina diversi.
Un’altra caratteristica di cui va tenuto conto è la quantità di memoria cache presente
sul processore. I processori dal 486 in poi hanno 16 byte di memoria cache di primo
livello (L1), ma dal Pentium si è cominciato ad incorporare nei processori anche la
cache di secondo livello(L2). Si tratta di uno speciale modulo di memoria RAM,
quindi che si cancella ad ogni spegnimento, ma che non è direttamente utilizzabile
per caricare programmi da eseguire come la normale RAM. Questa memoria
aggiuntiva funziona alla stessa velocità del processore, quindi è molto più veloce
della RAM di sistema, e viene utilizzata per tenere in memoria i dati a cui il
processore accede più spesso o di cui il processore prevede di farne uso a breve
tempo. Ad una nuova richiesta di caricamento di quei dati, il sistema operativo
esamina il contenuto della scheda cache e solo se non vi trova il file richiesto ne
effettua la lettura da RAM o disco. Se quella frazione di programma o documento
era stata recentemente utilizzata, è già presente nella cache e quindi il sistema
operativo ne effettua il caricamento senza alcuna lettura esterna. Essendo il
caricamento da memoria cache di gran lunga più veloce di quello da RAM e da
disco, ne deriva la conseguenza che la presenza di una scheda di memoria cache
velocizza le operazioni.
Processore
Intel Celeron
Intel PIII SECC
Intel PIII FCPGA
Intel PIV
Frequenza Massima
1400 Mhz
500 Mhz
1333 Mhz
2800 Mhz
AMD K6 (Duron)
1300 Mhz
AMD K7 (Athlon)
AMD Athlon XP
Intel Xeon
Intel Itanium
2400 Mhz (2800+)
2400 Mhz (2800+)
2800 Mhz
733-800-900 Mhz 1 Ghz
Freq FSB
100 Mhz
100 Mhz
133 Mhz
400-533 Mhz (DDR)
2 channel
100Mhz (200 Mhz
DDR)
200-266 (DDR)
266-333 (DDR)
400 Mhz
200 DDR
Cache
128 Kb
256 Kb
256 Kb
512 Kb
128 Kb
256 Kb
256 Kb
512 Kb
2 Mb
Microprocessori RISC
Nelle più recenti famiglie di microprocessori il numero dei comandi è stato portato a
poche diecine: sono rimasti solo i comandi corrispondenti alle operazioni principali,
ed hanno una struttura molto semplice. La gran parte delle operazioni viene così
eseguita in un solo ciclo e l'architettura interna è stata resa più efficace. Questo tipo
di microprocessori viene chiamata RISC, dall'inglese Reduced Instruction Set
Computer, in contrapposizione al vecchio tipo, chiamato CISC, Complex Instruction
41
Set Computer.
Mentre, ad esempio, il linguaggio macchina del 8086 possiede più di 100 comandi e
quello del 68000 possiede 55 comandi, quello del MIPS RISC ne ha solo 22. D'altra
parte, nella maggior parte dei programmi vengono utilizzati effettivamente solo il
20% dei comandi esistenti nei microprocessori CISC.
Un certo numero di istruzioni, le meno importanti, che prima corrispondevano ad un
comando che è stato abolito, richiedono ora una successione di comandi principali
per essere eseguite. Ma essendo poco frequente l'uso di queste istruzioni, non ha
conseguenze sulle prestazioni del microprocessore.
Microprocessori RISC della nuova generazione, come lo i860, hanno una architettura
interna che permette l'esecuzione contemporanea di istruzioni. Ad ogni ciclo
vengono eseguite un numero istruzioni.
Il microprocessore RISC sarà il cuore dei personal dei prossimi anni. L'unico
ostacolo è l'alto costo, ma molti produttori di personal, come IBM ed Apple, stanno
investendo milioni di dollari nella ricerca scientifica per la messa a punto di un RISC
meno costo ed ancora più efficiente. Attualmente microprocessori RISC sono
utilizzati prevalentemente in alcune schede grafiche per l'elaborazione di immagini
fotografiche a colori ed in stampanti laser ad alte prestazioni.
Considerazioni finali
Se è il microprocessore che determina le caratteristiche di un computer, vediamo
come possiamo identificarli:
Processore Intel
8088
8086
80286 (286)
80386 (386)
Bus dati
8 bit
16 bit
16 bit
16 bit reali / 32 bit
virtuali
80486
32 bit reali
Pentium
32 bit reali
Pentium MMX 32 bit reali
Pentium Pro
32 bit reali
Pentium II e
32 Bit reali
Celeron
Pentium III
32 Bit reali
SECC
Pentium III
32 bit reali
FCPGA
Frequenza FSB
4,77 – 8 Mhz
8 Mhz
12-16 Mhz
16 –20 mhz (386SX)
25 – 33 Mhz (386 DX)
25 –33 Mhz di FSB *
FSB a 33 Mhz **
FSB a 33 Mhz ***
FSB a 66 Mhz
FSB a 66 Mhz
Data di introduzione
1981
1984
1987
1989
1991
1994
FSB a 100 Mhz
FSB a 133 Mhz
* con i processori overdrive che moltiplicavano la frequenza i 486 DX arrivavano a
50, 66 e 100 Mhz
** i Pentium utilizzavano già il moltiplicatore esterno e raggiungevano le velocità di
120 Mhz
*** Velocità reali fino a 266 Mhz, i Pentium MMX ebbero cloni da AMD, Cyrix e
IBM e furono utilizzati per lungo tempo
42
Clock
Tutte le operazioni che avvengono in un computer sono composte da impulsi
elettrici. Questi impulsi vengono emessi ad intervalli regolari da un processore clock,
vero e proprio cuore che batte nella scheda madre. Gli impulsi del clock servono a
scandire tutte le elaborazioni dei vari processori e tutti i passaggi di dati.
In particolare è il clock che impone la velocità al microprocessore. La velocità a cui
oscilla il clock, in MegaHertz, deve essere uguale a quella che il Front Side Bus, cioè
il collegamento esterno del Processore, può sostenere. Non è quindi possibile
togliere un microprocessore lento e sostituirlo con uno più veloce su una scheda
madre che abbia un clock con frequenza pari alla velocità più lenta. O meglio: il
microprocessore funzionerebbe, ma alla velocità del clock.
Il clock non deve essere confuso con l'orologio presente su gran parte dei computer,
che invece serve solamente a registrare l'ora e la data per ogni registrazione di dati su
disco. Per poter conservare il calcolo del tempo anche a computer spento, l'orologio
è alimentato da una batteria cambiabile o autoricaribile. Il clock non ha bisogno di
funzionare a computer spento.
43
La memoria
In ogni personal computer vi sono due tipi di memoria:
• una memoria di archiviazione, che serve a registrare il sistema operativo, i
programmi ed i documenti. Questo tipo di memoria conserva permanentemente le
informazioni registrate. Sono memorie di archiviazione il disco rigido, i dischetti, i
CD-ROM... (vedi capitolo “Le unità di memoria di massa”);
• una memoria di lavoro, che serve per accendere il computer, per caricare il sistema
operativo e per lavorare con i programmi ed i documenti. La memoria di lavoro è
costituita da chip montati sulla scheda madre o su moduli aggiuntivi.
La memoria di lavoro si divide in due parti:
• memoria ROM, che serve ad accendere il personal;
• memoria RAM, che serve a lavorare.
Quando si accende un personal, si attiva la memoria ROM, che da vita al computer e
che provvede a caricare il sistema operativo dal disco rigido (memoria di
archiviazione) alla memoria RAM. Qui il sistema operativo si installa e “prende
possesso” del computer.
Quando vogliamo lavorare con un programma, cioè quando lo mandiamo in
“esecuzione”, oppure quando “apriamo” un documento per modificarlo, il sistema
operativo legge dal disco rigido il programma e/o il documento e li carica nella
memoria RAM. Qui possiamo lavorare con il programma, modificare un documento,
crearne uno nuovo.
Tutto il lavoro sui documenti si svolge nella memoria RAM e deve essere
considerato provvisorio finché non venga “salvato”, cioè non si chieda al sistema
operativo di registrare il lavoro effettuato su un disco rigido o su un’altra memoria di
archiviazione.
La memoria RAM, infatti, deve essere continuamente tenuta in vita da impulsi
elettrici ed in mancanza di questi, quando il computer viene spento, perde tutti i dati
caricati. Per questo la memoria RAM viene chiamata “volatile”: basta poco, una
mancanza di elettricità, qualcuno che inciampa nel filo della corrente, perché tutto il
lavoro svolto fino a quel momento scompaia come una scritta sulla sabbia per un
colpo di vento.
La memoria ROM, invece, servendo proprio ad accendere il personal, rimane sempre
inalterata.
Memoria ROM
La memoria ROM, dall’inglese Read Only Memory, è un tipo di memoria
permanente, non “volatile”, e che non può essere modificata dall’utente del
computer.
Quando il computer ci viene venduto possiede già una piccola dotazione di software
intallato nella memoria ROM. Software, ripetiamo, che è registrato
permanentemente e non può essere né cancellato, né modificato.
Memoria RAM
Oltre ai chip della memoria ROM, che è di sola lettura, esistono altri chip di
memoria. Questa volta si tratta di memoria vuota, a disposizione dell’utente. Anzi: a
44
disposizione del computer, il quale ha necessità, per poter eseguire un programma ed
elaborare dei documenti, di caricare in memoria sia il programma che i documenti.
Questa memoria viene chiamata RAM, dall’inglese Random Access Memory, cioè
“memoria ad accesso casuale”. Il che non vuol dire che il computer carica
programmi e dati “dove capita, capita”, ma sottintende una procedura molto più
complessa di quella che il nome lascia intendere.
Se diamo ad un computer il comando di eseguire un determinato programma, questo
viene letto dal disco e caricato nella memoria RAM. La proprietà “casuale” della
memoria RAM viene fuori quando inizia l’esecuzione del programma.
Tutti i programmi sono composti da vari spezzoni, ognuno dedicato ad un’attività
diversa. Ci sarà uno spezzone per la visualizzazione su schermo, un altro per
l’elaborazione del testo, altri ancora per l’effettuazione di calcoli o la creazione di
grafici. Ogni spezzone è stato caricato in memoria l’uno dopo l’altro senza
suddivisione, ma in una parte apposita del programma sono “dichiarate” le lunghezze
dei vari spezzoni.
Quando si verifica il bisogno di uno spezzone, il computer non è costretto a leggersi
tutto il programma dall’inizio alla fine. Sapendo dove inizia il programma e la
lunghezza dei vari spezzoni, è semplice andare direttamente a leggere nel punto
giusto. Né conta se quel programma è stato registrato in una parte od in un’altra della
memoria. “Casuale”, in questo caso, è contrapposto a “sequenziale” e vuol dire
semplicemente che si può andare a leggere una qualsiasi posizione di memoria.
Volatilità della RAM
Non soltanto la memoria RAM è vuota quando acquistiamo il computer, ma anche
tutte le volte che lo accendiamo. In essa, infatti, non è possibile conservare
permanentemente un programma. La RAM è “volatile”: ha bisogno continuamente
della corrente elettrica che alimenta il computer, altrimenti perde il suo contenuto.
Del resto i programmi che utilizziamo sul nostro computer sono molti: se ognuno di
essi venisse tenuto per sempre in memoria, ben presto dovremo iniziare ad
aumentare incessantemente i chip di memoria per poter ancora lavorare. Quindi,
molto semplicemente, quando spengiamo il nostro computer, tutto quello che è stato
caricato nella memoria RAM viene cancellato.
Riguardo ai programmi, nessun problema. Essi sono registrati sul disco rigido e,
volendo di nuovo lavorare con quel programma, basta chiederne l’esecuzione ed il
sistema operativo provvede a caricarlo in memoria RAM. Il problema sorge per i
documenti. Se abbiamo creato un documento nuovo, o modificato uno già esistente,
il documento si trova ancora in memoria RAM. Spengere il computer in questo
momento provoca la cancellazione della memoria RAM e quindi la perdita di tutto il
lavoro che non abbiamo provveduto a registrare sul disco rigido.
Lo spegnimento del computer potrebbe anche non essere volontario: il contatore che
salta, un blackout della corrente, un collega che inciampa nel cavo e stacca la spina,
sono incidenti probabilissimi che causerebbero la perdita di tutto il lavoro in corso e
non ancora registrato. E’ buona regola registrare frequentemente su disco rigido il
lavoro che si sta facendo, oppure subito dopo operazioni importanti di modifica.
Dimensione della RAM
La dimensione della memoria RAM è un elemento molto importante nella
configurazione di un computer, seconda solo alle caratteristiche del microprocessore.
45
Più RAM abbiamo nel computer, più questo potrà lavorare con programmi
complessi ed elaborare un maggior numero di dati.
Se la memoria RAM non basta a contenere un programma, questo non può essere
eseguito. Se il programma entra nella memoria, ma il documento sul quale vogliamo
lavorare non può essere caricato nella parte libera rimasta, il sistema operativo è
costretto ad effettuare continue operazioni di registrazione e di lettura del
documento.
Il sistema operativo carica in memoria solo una parte di documento e, quando
chiediamo di andare avanti nel lavoro, la registra sul disco per poter leggere e
caricare in memoria la porzione successiva. Uguale impegno viene richiesto da
programmi particolarmente complessi che sono stati frazionati in un certo numero di
file. Il sistema operativo, di volta in volta, carica dal disco quello richiesto. Questo
tipo di frazionamento è molto diffuso, perché facilità la compatibilità verso macchine
con memoria inferiore a quella teoricamente necessaria. A livello fisico la memoria
RAM viene venduta in barrette, che nei computer moderni si chiamano DIMM
(Double Inline Memory Module, Moduli di memoria a doppia linea), e hanno 168
contatti nella versione SDRAM. Ciascun modulo contiene infatti una doppia linea di
chip di memoria e viene visto come se fossero due banchi di memoria. La capacità
varia tra i 64 e i 512 Mb per ogni modulo. I moduli non sono legati in alcun modo tra
di loro, quindi fino a raggiungere la massima capacità supportata dalla scheda madre,
possono essere mescolati a piacere. SDRAM significa Syncronous Data RAM, e sta
ad indicare che il trasferimento dei dati avviene in sincronia col clock di sistema.
Esistono altre memorie che possono essere utilizzate, anche se non mescolate con le
SDRAM. Un tipo molto utilizzato sono le memorie DDR (Double Data Rate) che
funzionano teoricamente a velocità doppia delle SDRAM poiché trasferiscono una
doppia quantità di dati per ogni ciclo del clock di sistema. Non sono compatibili
nemmeno a livello fisico, avendo 184 contatti suddivisi in due gruppi, mentre le
SDRAM usano 168 contatti in tre gruppi. Le DDR sono state sviluppate da AMD per
i propri processori DDR (K6 ma soprattutto K7). Un ulteriore tipo di RAM che si
può incontrare, soprattutto nei PC di fascia alta, è la RDRAM, sviluppata da
RAMBUS (consorzio di Intel e Kingston) per i Pentium 4, ma poco implementata
perché molto costosa. Utilizza canali multipli a 400 Mhz e a 16 bit per comunicare
col processore, ciascun modulo occupa due piste di contatti ed eventuali piste libere
devono essere “chiuse” con un terminatore di tensione.
Memoria virtuale
Dovendo utilizzare più di un programma contemporaneamente, può darsi che la
somma della memoria RAM richiesta dai programmi superi la capacità della
memoria RAM installata. In questo caso è possibile simulare la presenza di una
quantità superiore, anche doppia o tripla, di RAM. Questa memoria “inesistente”
viene chiamata “memoria virtuale”.
Per la creazione della memoria virtuale ci si può servire del sistema operativo
(Windows ‘9x e Macintosh 7.x) o di appositi programmi d’utilità. Il metodo di
creazione della memoria virtuale è, nei due casi, diverso.
Il sistema operativo utilizza principalmente il disco rigido. Quando abbiamo uno o
più programmi in memoria RAM e ne vogliamo caricare un altro, e la somma della
memoria richiesta dai programmi supererebbe la RAM fisicamente disponibile, il
sistema operativo registra su disco rigido i programmi non attivi (compresi gli
eventuali documenti aperti con quei programmi) e quant’altro sia possibile scaricare
46
temporaneamente dalla RAM, per lasciare posto al nuovo programma. Quando
chiederemo di tornare a lavorare con uno dei programmi precedenti, il sistema
operativo scaricherà su disco il programma diventato inattivo (compresi i documenti
aperti) e caricherà nella RAM il programma richiesto.
Con questo metodo possiamo utilizzare più RAM di quella fisicamente presente nel
personal. Dovremo però pagare due pedaggi: meno spazio disponibile su disco e
velocità ridotta di lavoro.
Sul disco rigido, infatti, viene creato un file invisibile di sistema pari alla dimensione
complessiva della memoria virtuale. Se abbiamo installato RAM per 8Mb e, grazie
alla memoria virtuale, vogliamo fingere di averne 16Mb, il sistema operativo deve
creare un file di 16Mb su disco, riducendo lo spazio a disposizione per registrare
documenti e software. D’altra parte, tutte le volte che passeremo da un programma
all’altro fra quelli mandati in esecuzione, dovremo aspettare che il sistema operativo
scarichi dalla RAM il programma non più attivo e carichi il programma al quale
abbiamo chiesto di passare.
Il metodo utilizzato dai programmi di utilità per la creazione della memoria virtuale
è diverso. Invece di ricorrere subito alla registrazione su disco rigido, il programma
di utilità compatta i programmi non attivi e li comprime nella stessa RAM. Questa
operazione crea già abbastanza spazio libero senza grosse perdite di tempo, non
essendoci operazioni di scrittura/lettura su disco.
I programmi, inoltre, occupano sempre meno spazio di quello che richiedono. Un
programma che chiede 4Mb di RAM, ad esempio, in effetti ne occupa anche la sola
metà, in situazione di inattività. L’utilità, da una parte comprimendo il programma,
dall’altra recuperando lo spazio non utilizzato, riesce a “ricavare” abbastanza
memoria da ospitare altri programmi.
Solamente a questo punto, se lo spazio ancora non basta, ricorre alla registrazione su
disco. Si tratta, però, della registrazione di dati compattati, e quindi le operazioni di
scrittura/lettura sono molto più veloci di quelle richieste dal sistema operativo.
Il file creato dal programma di utilità è a grandezza dinamica, cioè non occupa uno
spazio su disco pari al totale della memoria virtuale, bensì occupa uno spazio
variabile a seconda della necessità.
Con la memoria virtuale, quindi, possiamo caricare in memoria molti più programmi
e documenti di quanti la RAM fisica permetterebbe. L’unico requisito è che ciascun
singolo programma non superi, da solo, la capacità della memoria fisica. Se abbiamo
8Mb di RAM espansa a 16Mb virtuali, non possiamo caricare nessun programma
che, da solo, richieda più di 8Mb. Possiamo caricarne tre da 4Mb ciascuno, ma non
uno da 9Mb.
La scheda madre
La scheda madre è una parte essenziale del PC perché tiene insieme a livello fisico i
vari componenti ma in contemporanea permette la comunicazione tra il processore e
le varie schede di interfaccia e porte esterne.
Questo compito di coordinare l’accesso alle periferiche da parte del processore viene
fatto tramite un insieme di Chip chiamato CHIPSET, che è costituito principalmente
da due chip, chiamati Northbridge e Southbridge e rispettivamente utilizzati per far
dialogare il processore con la Ram e il processore con gli altri bus di sistema. Come
si può intuire, ogni chipset è costruito intorno ad un processore specifico (o meglio,
una famiglia di processori), e può supportare un tipo di memoria e un insieme di
porte di comunicazione differenti. Avremo così Chipset per Pentium 4 con Rambus,
47
con DDR o con SDRAM, che supportano o non supportano USB e FireWire, e poi
Chipset per AMD con SDRAM o DDR e così via. I produttori di chipset sono 4,
Intel, Via, Sis e Soyo.
Sulla scheda madre sono presenti alcuni connettori, chiamati slot, in numero vario da
modello a modello, otto nella maggior parte dei casi. In questi connettori è possibile
inserire
schede
con
impieghi
particolari.
Nei primi modelli di personal vi venivano inserite la scheda per il video, la scheda
per il disk drive, quella per la porta seriale, quella per la porta parallela, quella per il
disco
rigido.
Nei personal recenti gran parte di queste schede, o meglio, i loro componenti sono
incorporati nella scheda madre e quindi gli slot sono stati ridotti di numero o sono
stati
lasciati
liberi
per
altri
usi.
Del resto oggi sarebbe improponibile commercializzare un computer non dotato di
disco rigido e di floppy disk, mentre la miniaturizzazione portata dall'avanzamento
della tecnologia ha consentito di inserire i componenti di queste schede già sulla
scheda
madre.
Ciò rende il computer più economico e più efficiente. Riduce inoltre le possibilità di
acquisti di schede inadatte al computer ed evita le complicate procedure di
installazione.
Le schede incorporate nella scheda madre e quelle inserite negli slot, che si tratti di
quella video, un modem su scheda, o di una scheda per la connessione in rete, hanno
uno scambio di dati con il computer. Il percorso con il quale avviene questo scambio
viene chiamato bus dei dati, ed il modo nel quale lo scambio avviene può seguire
diversi standard. I più comuni, in ambiente PC, sono:
-
-
-
-
-
ISA, Industrial Standard Architecture, nata con i computer IBM di tipo AT,
con microprocessore 80286; ormai abbandonata, ha ampiezza di dati di 8 o 16 bit
ed è stata utilizzata come interfaccia tuttofare fino a poco tempo fa. Con la
seconda generazione di Pentium III è stata definitivamente abbandonata.
EISA, Enhanced Industrial Standard Architecture, adottata da molti
computer DOS compatibili, a 32 Bit, utilizzata per i controller dei dischi e le
schede di rete ad alte prestazioni sui file server (di classe 386).
VESA, introdotta con i 486, (Video Expert Standard Architecture),
principalmente per schede video e controlled ad alte prestazioni, otteneva i 32 bit
di ampiezza di bus dati aggiungendo un ulteriore slot in serie ad una porta ISA,
quindi poteva essere usata sia come ISA che come VESA
PCI (Peripheral Connection Interface) è la più diffusa ai giorni nostri,
permette un bus dati a 32 bit e il DMA, cié l’accesso diretto alla memoria. Tutte
le schede interne, oggigiorno sfruttano il BUS PCI. I controller dei dischi e delle
porte esterne sfruttano un Canale PCI non associato a nessuno slot.
AGP (Accelerated Graphic Port), è un canale, più che un BUS, per il
collegamento di una scheda video alla Main Board. Permette al processore
grafico di utilizzare parte della RAM di sistema per le proprie elaborazioni. Non
ci può essere più di uno slot AGP per ogni MainBoard, così purtroppo le schede
madri che usano chip grafici integrati non hanno possibilità di espansione.
48
Poiché tutto il traffico di segnali, all'interno della scheda madre, è temporizzato dal
clock, anche questo scambio di dati fra scheda madre e schede negli slot avrebbe
dovuto essere sincronizzato. In realtà non è così. Il fatto è che le velocità dei clock
nei personal variano moltissimo, come abbiamo visto. Ad esempio, si passa dai
4,77MHz, agli 8MHz, ai 12MHz, per salire ai 16MHz, ai 20MHz ed ai 33MHz.
Tuttavia la gran parte delle schede esistenti non potrebbe funzionare alle velocità più
elevate, senza contare la tendenza di molti utilizzatori di personale che, cambiando
computer, vogliono conservare l'uso delle schede acquistate e non essere costretti a
buttarle via. Ecco quindi che i costruttori delle schede madri hanno dovuto inserire
un processore che funziona da filtro fra la velocità del clock e quella effettiva di
scambio
di
dati
con
le
schede.
BUS Dati
Isa
Eisa
Vesa
PCI
AGP
Ampiezza del Bus
8/16 bit
32 bit
32 bit
32 bit
64 bit
Frequenza del Bus
8,33 Mhz
8,33 Mhz
25-33 Mhz
48,3 Mhz
66-133-266 Mhz (Base, 2x, 4x)
Riassunto caratteristiche dei bus più utilizzati
Oltre alla scheda video, a quella di interfaccia per i dischi ed a quella di rete, negli
slot possono essere inserite schede per i più svariati impieghi:
- elaborazione multimediale, che può ricevere e produrre un segnale video inviabile
alle normali apparecchiature televisive, come televisori, videoregistratori, banchi di
mixaggio; o che può ricevere, tramite un sintonizzatore, le immagini trasmesse dalle
ordinarie
stazioni
televisive;
- elaborazione fotografica, con il trasporto su pellicola per diapositiva delle immagini
del video e, viceversa, per la registrazione sul computer di immagini riprese con le
moderne
macchine
fotografiche
a
dischetto
magnetico;
- ricezione satellitare, in grado di sintonizzarsi, tramite una antenna, sulle
trasmissioni
provenienti
dai
satelliti
di
rilevamento meteorologico;
- compressione dei dati, per la registrazione di documenti in forma compattata,
permettendo al disco rigido di contenere più dati di quanto sarebbe possibile. La
scheda si occupa di compattare in fase di registrazione e di scompattare in fase di
lettura da disco, comportando un piccolo ritardo in tutte le operazioni;
- accelerazione della capacità elaborative, con schede che contengano
microprocessori più veloci che si sostituiscano a quello del computer o che lo
affianchino
nei
suoi
compiti;
- elaborazione musicale, grazie alla quale è possibile gestire strumentazione musicale
MIDI, eseguendo musica sugli strumenti, registrandola su dischetto od elaborandola
sul computer. E' anche possibile, tramite un microfono, digitalizzare suoni di
qualsiasi
tipo,
musica,
voce;
- strumentazione di laboratorio per ogni scopo scientifico. Il computer può cosi
guidare
e
ricevere
dati
da
molte
apparecchiature
di
analisi;
- lavorazione industriale, come guida e controllo di macchinari robotizzati;
- riconoscimento della voce, per il riconoscimento dei comandi impartiti tramite
espressioni vocali.
49
Processore DMA
Il processore Direct Memory Access gestisce il flusso di dati fra la memoria del
computer ed alcune periferiche abilitate al DMA, alleggerendo il lavoro del
microprocessore. Lo scambio di dati con le periferiche è quindi più veloce, perché ha
un diretto accesso in memoria e non deve attraversare l'architettura del
microprocessore.
Porte Esterne
Il computer deve comunicare i dati che elabora. Ad esempio, se il risultato di una
elaborazione deve essere stampato, i dati relativi vengono inviati alla stampante.
L'uscita di questi dati avviene attraverso alcuni connettori esterni presenti nella parte
retrostante del computer. Come si potrà verificare dai dati tecnici descritti nel
manuale del computer, sono presenti almeno una porta seriale ed almeno una porta
parallela.
A queste porte vengono collegati tutti i dispositivi accessori, con i quali è necessario
uno scambio di dati in entrambe le direzioni. La differenza fra questi tipi di
connettori va al di là delle loro semplici dimensioni e dalla quantità di piedini
presenti, e riguarda il modo in cui i dati vengono trasmessi da e per le periferiche.
Gli impulsi di dati sono formati da singoli bit, ma l'unità minima significativa è il
byte,
cioè
otto
bit.
Nella porta seriale, i dati che vengono trasmessi alla periferica sono inviati un bit
alla volta: i bit viaggiano in serie, l'uno dopo l'altro sullo stesso filo. Per trasmettere
un byte, sono necessari otto invii. Sono porte seriali le porte RS-232, le porte PS/2, le
USB
e
le
FireWire
Nella porta parallela, i dati che vengono inviati alla periferica sono trasmessi un
byte alla volta: i bit viaggiano insieme, parallelamente su otto fili. Per trasmettere un
byte è necessario un solo invio.
La porta seriale standard consente il transito dei dati in entrambe le direzioni, sia dal
computer alla periferica che dalla periferica al computer. L'utilizzazione principale di
questa porta avviene nel caso di collegamenti con periferiche attive, come mouse,
modem, penne ottiche. Questa porta viene gestita da un chip chiamato UART
(Universal Asyncronous Receiver Transmitter)
Tipo Uart
8250/8250b
16450
16550a/f
Velocità Max in
Kbit/s
9600
19200
115000 (buffer fifo)
Molto spesso il connettore della porta seriale ha 9 punti di contatto, in altri casi 25:
uno serve per i bit in trasmissione, uno per i dati in arrivo, uno è per il collegamento
a terra, gli altri per lo scambio di particolari segnali fra le periferiche ed il computer.
Questi segnali riguardano, ad esempio, lo stato di "pronto a ricevere" della periferica
o del computer e quello di "richiesta di invio". Questi connettori sono spesso
identificati
con
la
sigla
"RS232C".
A volte la porta seriale viene utilizzata per il collegamento di alcune stampanti e dei
plotter, anche se il traffico dei dati è in un senso solo.
Il traffico dei dati attraverso la porta seriale può avvenire a diverse velocità e con
diverse sequenze di bit. In particolare, poiché spesso lo scambio dei dati avviene a
50
distanza di qualche metro, è necessario prevedere anche lo scambio di alcuni segnali
di controllo che permettano di verificare che i bit ricevuti siano uguali a quelli
trasmessi. L'interferenza di macchinari elettrici, come monitor, computer o
stampanti, potrebbe danneggiare il flusso dei bit durante il loro viaggio lungo il cavo.
La velocità di trasmissione, la struttura dei pacchetti di bit inviati ed il tipo di
controllo effettuato, determinano il protocollo usato nella trasmissione dei dati. I
diversi protocolli sono stabiliti internazionalmente.
La porta seriale consente anche il collegamento fra computer, sia direttamente
tramite un cavo, che a lunghe distanze, tramite modem. In entrambi i casi è molto
importante stabilire in precedenza il protocollo di trasmissione da entrambe le parti.
In particolare, la trasmissione dei dati può variare in velocità da 96.000 bit al
secondo nella comunicazione diretta fra due computer, a 300 bit per secondo quando
si tratta di computer distanti e la comunicazione è effettuata tramite linea telefonica.
La comunicazione più frequente, tramite modem, avviene a 2'400 oppure a 1'200 bit
per
secondo.
La porta parallela consente il transito in una sola direzione: dal computer alla
periferica. Viene quindi usata quasi esclusivamente per il collegamento con le
stampanti.
I connettori della porta seriale hanno 25 oppure 36 punti di contatto, otto dei quali
per l'invio dei dati e gli altri per l'invio e lo scambio di segnali. Anche se non può
ricevere dati, la porta parallela può ricevere segnalazioni dalla periferica, come il
segnale di "occupato" o quello di "carta esaurita". I connettori della porta parallela
sono spesso identificati con la scritta "Centronics". La porta parallela consente una
maggiore velocità di trasmissione, in quanto ciascun byte viene trasmesso in una sola
volta. Per questo è preferibile nell'uso con dispositivi lenti, come le stampanti. La
trasmissione parallela non consente però un controllo sulla identità fra i dati
trasmessi e quelli ricevuti. Quindi, pur consentendo una maggiore velocità, permette
solo
collegamenti
a
breve
distanza.
La trasmissione parallela non ha protocolli ma tre modalità di funzionamento, di cui
due bidirezionali.
La modalità SPP (Standard Parallel Port) è monodirezionale e raggiunge 150 Kb/s
di velocità
La modalità EPP (Enhanced Parallel Port) è bidirezionale, usa un canale IRQ per
indicare al processore che ha bisogno di attenzione e trasmette i dati a 500 Kb/s. E’
usata per stampanti e scanner.
La modalità ECP (Enhanced Communication Port) è bidirezionale, oltre al canale
IRQ necessita di un canale DMA e raggiunge i 2 Mb/s. E’ usata per stampanti e unità
a dischi esterne.
Le ultime schede madri possono supportare le porte Parallele in modalità mista
ECP+EPP e decidere quando usare una modalità e quando l’altra.
51
USB
USB (Universal Serial Bus) è la porta tuttofare di nuova generazione, e dai sistemi
basati su Pentium II è presente su tutti i PC. Ciascuna porta USB supporta fino a 127
periferiche in cascata, collegate tra di loro tramite HUB (concentratori), ed esiste in
tre versioni. La verione più commercializzata è la USB 1.1, in due velocità, 1,5
Mbit/s e 12 Mbit/s. La versione moderna, ancora poco commercializzata, la USB 2.0
arriva a 480 Mbit/s, ma non è compatibile in modalità mista con la USB 1.1.
I connettori USB sono autoalimentati, composti da 4 cavetti, due per i dati e due per
la tensione (12V, 5 mA), anche se per connettere periferiche che assorbono tanta
energia è necessario utilizzare hub alimentati o meglio periferiche autoalimentate.
FireWire
Le periferiche FireWire sono state introdotte al grande pubblico da Apple sui suoi
iMac. Sono un bus più veloce rispetto alla USB 1.1 e vengono utilizzate
prevalentemente con unità di memoria di massa, come ad esempio Hard Disk esterni
o videocamere digitali. Supporta fino a 63 periferiche alla velocità di 400 Mbit/s e
non ha necessità di un PC per funzionare. E’ implementato soprattutto sulle
videocamere in formato digitale miniDV, in quanto permette il trasferimento del
filmato digitale e il montaggio in tempo reale tra Videocamera e Videoregistratore o
PC. Al momento sono ancora abbastanza costose e poco implementate in fabbrica,
anche se alcuni modelli di iMac vengonovenduti con queste porte già incorporate.
Firmware e BIOS
Questo software viene chiamato firmware, cioè saldo, fisso, e comprende anche tutte
le basilari istruzioni utilizzate dai programmi per avere accesso ai diversi
componenti hardware come il video, il mouse, le porte di comunicazione ed i dischi
floppy o rigidi.
Fa parte del firmware, ad esempio, il BIOS, cioè quel gruppo di istruzioni che
consente ai diversi processori di attivarsi al momento dell’accensione del computer,
di rispondere agli impulsi del clock e di effettuare un piccolo autotest di
funzionamento. Infine viene letto il sistema operativo presente sul disco rigido e,
dopo essere stato caricato nella memoria RAM, gli viene ceduto il controllo del
sistema.
La ROM è definita nella configurazione base di ciascun computer e la sua grandezza
non ha molto a che vedere con le prestazioni del personal, con la sua velocità di
elaborazione o la sua potenza. Per quanto riguarda il firmware, esso viene installato
dalla ditta costruttrice della macchina e non è modificabile.
Anche se spesso la presenza e la quantità della memoria ROM sulla scheda madre o
sulle schede accessorie viene evidenziata nei manuali o nei depliant dei computer,
l’utente non ha alcun beneficio nel conoscerne le dimensioni o le caratteristiche.
L’attività del firmware presente nella memoria ROM è del tutto invisibile.
Nei personal più vecchi era necessario sostituire la ROM, per sostituire il firmaware
contenuto, quando si voleva aggiungere un dispositivo hardware che non era previsto
quando era stato costruito il computer ed installato il firmware. E’ una operazione,
52
ad esempio, che deve fare chi voglia collegare un disco da 3,5 pollici ad un vecchio
computer con 8086, nato quando questi non esistevano ancora e si usavano i dischi
da 5 e 1/4.
Con i sistemi attuali, invece, tale funzione di compatibilità con periferiche nuove
viene svolto da porzioni del sistema operativo chiamati “driver”. Ogni periferica
nuova che si collega al computer (stampanti, unità di memoria di massa, schede...)
richiede che venga intallato il proprio driver nel sistema operativo e non necessita
più modifiche alla ROM.
Oltre alla memoria ROM presente sulla scheda madre, un computer può avere anche
altra memoria ROM inclusa in schede specializzate inserite nei connettori. Questo
tipo di schede hanno spesso bisogno di un programma apposito per poter svolgere le
proprie funzioni. Niente di più naturale, ed economico, che includere questo
programma in una ROM che, saldata alla scheda stessa, non corre il pericolo di
danneggiarsi o di essere persa come potrebbe accadere ad un dischetto.
Flash-ROM e Boot-ROM
In alcuni personal, da scrivania o portatili, vengono inserite memorie ROM speciali,
contenenti parti del sistema operativo come firmware. Queste ROM vengono
chiamate Flash-ROM o Boot-ROM, perché consentono di avviare il computer e di
trovarsi pronti al lavoro in pochi secondi.
Essendo, però, a sola lettura, queste memorie non consentono di aggiornare il
sistema operativo, se non con la sostituzione delle ROM stesse, sempre che il
produttore abbia mantenuto quel particolare modello di personal ancora in
produzione.
In altri computer, ad esempio i notebook, nelle ROM non solo è stato inserito il
sistema operativo, ma anche alcuni programmi applicativi: un word processor, un
foglio di calcolo, un programma di agenda e appuntamenti ed uno per la gestione di
una base di dati. Ciò consente di eliminare il lettore dei floppy, il lettore di CD-ROM
e parte del disco rigido, alleggerendolo in peso ed in costi, ma vincola per sempre a
non cambiare programma ed a non poter fare aggiornamenti.
Il lato positivo dell’avere i programmi permanenti in ROM è di poterli richiamare in
una frazione di secondo e nel poter saltare dall’uno all’altro con un semplice tasto. In
alcuni notebook è possibile spengere il computer avendo sullo schermo un lavoro e,
nel riaccenderlo, trovare lo stesso lavoro allo stesso punto in cui l’avevamo lasciato.
Inoltre, eseguire un programma prelevandolo dalla memoria ROM comporta per il
computer un dispendio di energia molto inferiore di quello che sopporterebbe se
dovesse eseguirlo da un disco rigido.
53
La scheda video
Perché sia possibile la visualizzazione dei segnali del computer sullo schermo del
monitor, questi devono essere elaborati e trasformati in segnali video. Tutto ciò che
appare sul monitor viene inviato dal computer ad una scheda di interfaccia inserita in
un connettore oppure, nel caso dei computer portatili o dei computer desktop più
semplici, integrata sulla scheda madre. Le caratteristiche tecniche più importanti
delle schede video sono: la memoria RAM presente sulla scheda, il RAMDAC e il
processore grafico (GPU) utilizzato per l’elaborazione.
Il Processore Grafico (GPU)
Questo chip è il cervello della scheda video e controlla la generazione di immagini
2D/3D. I processori grafici sostanzialmente devono “interpretare” i bit che vengono
elaborati della CPU per trasformarli in un segnale che possa essere inviato al monitor
in maniera che diventi comprensibile per l’utente. Le schede grafiche non accelerate
avevano solo questa funzione di “traduzione”, ma con l’avvento di Windows il
sistema operativo cominciò a gravare molto di più sulla CPU per migliorare la
visualizzazione delle schermate e degli elementi grafici, come pure i giochi realizzati
si lanciavano sempre di più sulla “Realtà Virtuale” Nacque così il BUS VESA e le
schede con acceleratore grafico. Gli Acceleratori grafici non erano altro che schede
con una GPU talmente potente da elaborare per conto suo i dati necessari per la
creazione dell’ambiente grafico del sistema operativo (accelerazione 2D) e per la
creazione di immagini vettoriali in 3D (acceleratori 3D). Per un certo periodo di
tempo vennero venduti anche acceleratori 3D “stand Alone”, che permettevano di
migliorare l’elaborazione 3D prendendo il controllo dell’uscita Video VGA, ma
vennero presto sopraffatti da schede con GPU che potevano fare di tutto. Ai giorni
d’oggi ci sono 4 case produttrici di GPU: nVidia, Matrox, S3 e ATI. Tutte le schede
video in circolazione montano un chip prodotto da una di queste quattro case, anche
se Matrox non commercializza a terzi le sue GPU molto potenti e portate per
applicazioni professionali.
LA Video RAM
La prima parte della scheda è costituita da una serie di chip di memoria RAM, nei
quali vengono caricati i dati che devono essere visualizzati sullo schermo. Questa
memoria, chiamata video RAM, ha una capacità che varia da 16Mb ad 128Mb.
La video RAM costituisce una specie di mappa geografica dello schermo. La
visualizzazione sul monitor avviene tramite l'accensione di punti luminosi sulla
superficie interna dello schermo: ogni parte della memoria rappresenta un punto sul
video.
Quanta memoria sia necessaria come video RAM è determinabile solo in funzione di
due fattori: il numero dei colori usati e la risoluzione dello schermo.
I primi video avevano la capacità di visualizzare immagini solamente in un colore.
Con l'avvento dei monitor a colori si sono resi disponibili prima 8, poi 16, poi 256,
quindi 65'536 ed infine oltre 16 milioni di tonalità.
Per risoluzione si intende l'accuratezza e la nitidezza delle immagini visualizzate. Se
queste sono formate da punti luminosi, più questi sono piccoli e vicini l'uno all'altro,
più l'immagine appare nitida. Maggiore è la quantità di punti, migliore è la
risoluzione.
L'unità di misura della risoluzione è il punto, chiamato anche, dai professionisti della
54
grafica, pixel. Una risoluzione di 748 per 350 punti vuol dire che lo schermo è
formato da un reticolo di 748 punti di base e 350 punti in altezza: l'immagine che
appare è composta da 261'800 punti. Con speciali schede è possibile avere una
risoluzione di 2'048 per 2'048 punti, nel qual caso l'immagine sullo schermo è
composta da 4'194'304 punti.
I dati presenti nella video RAM vengono trasferiti al monitor, a seconda delle
necessità di visualizzazione, in modo che le immagini che essi rappresentano
appaiano sullo schermo.
Il modo nel quale questi dati vengono interpretati per potere essere impressi sullo
schermo, viene determinato dall'adattatore grafico presente sulla scheda, che
funziona da interfaccia fra la video RAM ed il monitor. I dati contenuti nella
memoria video vengono tradotti dall'adattatore in una serie di istruzioni
comprensibili dal monitor.
Adattatore e monitor devono "parlare" nello stesso linguaggio di istruzioni. Questo
linguaggio viene chiamato standard grafico. Lo standard grafico non è unico, ma
varia a seconda delle caratteristiche di visualizzazione che richiediamo al nostro
computer.
Migliore è la risoluzione e migliore è la qualità dell'immagine che vediamo sullo
schermo. Ciò ha una notevole importanza sotto due aspetti:
- l'affaticamento della vista;
- le necessità di visualizzazione.
Se si deve lavorare molto davanti ad uno schermo e questo presenta immagini
confuse e sfocate, ben presto avremo dolore agli occhi e lacrimazione, e con il tempo
un calo nell'acutezza visiva.
Poiché non esistono grosse differenze di prezzo, è ormai consigliabile utilizzare
computer che adottano lo standard VGA. Se la visualizzazione dei colori non ha
importanza, potremo anche abbinare uno schermo monocromatico che, comunque,
sfrutta l'alta risoluzione della scheda.
L'uso di schede e monitor SVGA/UVGA non è ancora giustificato. Non essendo uno
standard molto diffuso, i prezzi sono ancora sostenuti, mentre la sua alta risoluzione
è eccessiva per l'utente normale: chi usa il computer per scrivere od elaborare dati
non percepisce la differenza fra una risoluzione di 720 per 480 punti ed una di 1'024
per 768 punti su un normale monitor da 14 pollici.
Il RAMDAC
Il RAMDAC è uno dei chip più importanti presenti sulla scheda Video e anche uno
dei meno noti. La sigla che lo contraddistingue significa RAM Digital-to Analog
Converter, ed è il chip preposto a controllare il flusso di dati in uscita sulla porta
VGA, che è una porta analogica. In pratica il RAMDAC converte i segnali digitali
prodotti dalla GPU e contenuti nella Video RAM in impulsi elettrici analogici
necessari per pilotare il cannone del tubo catodico. Maggiore è la frequenza del
RAMDAC, più alta sarà la risoluzione supportata dalla scheda e più alta la frequenza
di refresh impostabile, monitor permettendo.
55
La scheda Audio
Per lungo tempo i personal computer sono stati semplicemente guardati e non
ascoltati. Nonostante le funzionalità audio integrate nei computer Macintosh
suscitassero un notevole interesse, la maggior parte dei primi PC compatibili IBM
disponeva di una scarsa propensione verso l'audio, tranne qualche bip proveniente
dall'altoparlante integrato e la sgradevole ripetizione di fughe di Bach
eccessivamente semplificate. Molta acqua è passata sotto i ponti. Una piccola società
chiamata Creative Labs ha dato la voce ai PC grazie alla propria scheda Sound
Blaster. Da allora, le successive generazioni di Sound Blaster e schede concorrenti
hanno permesso di portare su PC una serie di funzionalità che vanno dalla
registrazione di audio digitale alla modifica e alla riproduzione. In questo processo il
vecchio telaio del PC si è trasformato in un mezzo cretivo e in un sistema di
intrattenimento alla portata di tutti. Negli ultimi anni, in molte applicazioni su PC le
funzioni audio hanno assunto la stessa importanza della grafica. Più recentemente,
l'audio tridimensionale, una caratteristica presente nelle schede più recenti, si è
largamente diffuso sia nei film sia nei giochi. Oggigiorno, qualsiasi PC multimediale
è in grado di gestire riproduzioni e registrazioni di audio digitale a livello di CD e di
riprodurre brani musicali da file.
Se si esamina l'interno della maggior parte dei PC multimediali commercializzati
prima del 1997, si noterà una scheda audio ISA all'interno del telaio. Nella maggior
parte dei casi, la scheda è una Sound Blaster. I sistemi più recenti non sempre
dispongono di una scheda separata in quando un piccolo chip sulla scheda di sistema
offre la stessa funzionalità, cioè la conversione di file digitali in impulsi elettrici
analogici che l'altoparlante trasforma in suoni. Tuttavia, le schede audio non hanno
introdotto nei PC la possibilità di gestire audio digitale. Dopo tutto, il primo PC IBM
poteva riprodurre toni musicali con il suo grezzo altoparlante inviando impulsi
elettrici corrispondenti per frequenza e ampiezza al suono desiderato. Le schede
audio hanno introdotto i primi strumenti necessari per l'evoluzione verso la gestione
di sofisticate transazioni audio. I convertitori da digitale ad analogico trasformano i
segnali digitali in onde analogiche per gli altoparlanti. Al contrario, i convertitori da
anologico a digitale (ADC) accettano in input i suoni provenienti da un microfono o
da una linea e li convertono in sequenze di 0 e 1 per poterli memorizzare su disco
rigido. La maggior parte delle schede audio è costituita dai seguenti componenti:
 un convertitore da digitale ad analogico
 un convertitore da analogico a digitale
 un chip per l'elaborazione audio o di segnali digitali (Digital Signal Processing,
DSP)
 un chip di amplificazione, per l'invio dei segnali ad altoparlanti non alimentati.
Poche schede comprendono un amplificatore, poiché quasi tutti gli altoparlanti
per PC sono in grado di amplificare i segnali in ingresso
 porte di input analogico per microfono, segnali di linea , CD audio e periferiche
MIDI
 porte per l'output analogico per altoparlanti, segnali di linea e joystick.
Esistono tuttavia due tipi di files musicali, che vengono interpretati in maniera
differente dalle schede audio. I files più comuni sono delle onde audio campionate, e
vengono elaborate tramite il DSP in coppia con i convertitori analogico-digitali. Il
secondo tipo di files sono i Files MIDI (Musical Instrument Digital Interface), nati su
stazioni di lavoro di strumentisti e poi portati anche sui PC. Questi files permettono
di specificare la musica come se fosse una partitura (indicando lo strumento, altezza
56
e durata della nota suonata, posizione dello strumento rispetto all’ascoltatore). La
qualità della riproduzione viene definita dai campioni di onda degli strumenti
memorizzati nella scheda audio o nell’apparecchiatura digitale. I file MIDI sono
scambiabili con moltissime apparecchiature, così è possibile per gli appassionati
creare la propria partitura MIDI sul PC di casa con una scheda schifosa e poi portarlo
in uno studio di registrazione professionale e far suonare la partitura MIDI come se
fosse eseguita da un’orchestra sinfonica.
57
Le unità di memoria di massa
Durante l’esecuzione di un programma, il programma stesso e tutti i documenti
elaborati risiedono nella memoria RAM. Ma la memoria RAM è temporanea: al
cessare dell’alimentazione elettrica non è in grado di conservare la magnetizzazione.
Per poter conservare i programmi ed i documenti è necessario ricorre ad un tipo di
registrazione magnetica permanente ed in grado di incamerare una grossa quantità di
dati.
Le unità di memoria di massa assolvono a questo scopo. Più o meno capaci, più o
meno veloci, più o meno pratiche, hanno tutte la caratteristica di immagazzinare una
quantità di dati, a volte enorme, per un tempo indefinito, e di consentirne in qualsiasi
momento la rilettura da parte del computer con il successivo caricamento nella
memoria RAM. Gli stessi programmi non potrebbero essere commercializzati senza
la possibilità di venderli materialmente registrati su un dischetto.
Esistono unità di memoria di massa di ogni dimensione, capacità e per ogni scopo.
Dal disco sul quale sono registrati i giochi che si acquistiamo in edicola, al dischetto
che utilizziamo per trasferire il lavoro dal computer in ufficio a quello a casa, ai
grossi dischi rigidi che servono da archivio per le reti, ai leggeri dischi ottici o
magneto ottici capaci di conservare intere enciclopedie in pochi grammi.
La conservazione dei dati è possibile grazie alla loro struttura binaria. Le serie di
zero e di uno che compongono i bit, che a loro volta compongono i byte, trasformati
in impulsi elettrici nel loro viaggio all’interno del computer e dei suoi componenti,
vengono conservato in forma binaria. Disponendo di una superficie formata da una
sostanza facilmente magnetizzabile, un ossido metallico, è sufficiente creare un
microscopico campo magnetico che alteri la polarizzazione delle particelle. Andando
a rileggere la polarizzazione, è possibile ricavarne gli stessi impulsi elettrici che li
hanno originati.
Un impulso elettrico positivo ha polarizzato in senso positivo una zona di ossido
metallico. Questa zona darà origine, tutte le volte che viene letta, ad un impulso
elettrico positivo.
Caratteristiche tecniche
Le tecnologie principali di registrazione sono:
- magnetica;
- ottica;
- magneto ottica.
All'interno di questi tipi troviamo diverse categorie di unità di memoria di massa:
- dischi flessibili rimovibili;
- dischi rigidi fissi interni od esterni;
- dischi rigidi rimovibili;
- cartucce a nastro;
- Compact Disc;
- dischi ottici scrivibili.
58
Dischi rigidi
Il principio di funzionamento è identico a quello dei floppy disk e la tecnologia è
magnetica.
Il disco rigido comprende in un unico dispositivo sia il supporto di registrazione
magnetica che la parte meccanica di motore e testine. Nella maggior parte dei
computer è presente un disco rigido nella configurazione di base, nel qual caso è
compreso nella stessa unità centrale e viene chiamo disco interno. Se il computer ne
è sprovvisto, o se ne occorre un altro per necessità di archiviazione, si tratta di una
apparecchiatura autonoma, chiamata disco esterno.
Il supporto di registrazione è formato da un disco di acciaio sul quale è presente la
sostanza di ossido metallico. Il disco di acciaio può essere singolo o multiplo,
rendendo così maggiore la capacità di archiviazione del drive.
La capacità di un disco rigido è nettamente superiore a quella di un dischetto su
supporto flessibile. I primi dischi rigidi avevano una capacità di 2Mb o di 5Mb. Con
il diffondersi dei personal e con il progresso tecnologico, i dischi rigidi sono saliti a
10Mb, 20Mb, 40Mb, 80Mb, 180Mb e così via. Oggi è comune trovare dischi di 100
Gb soprattutto per applicazioni grafiche o come unità di memoria di massa per server
di rete.
Un tipo di dischi rigidi, rispondenti allo standard SCSI, possono essere collegati ad
uno stesso computer utilizzano una sola scheda di interfaccia. Il primo disco è
connesso al computer, mentre i successivi sono collegati l'uno all'altro a catena, fino
ad sette o quindici unità.
I controller IDE e SCSI
I controller lavorano come agente del traffico, gestendo l'interfaccia fra le periferiche
(disco fisso, lettore CD-ROM, e altre componenti) e il sistema PC vero e proprio.
Quando la CPU richiede dati a un disco, per esempio, è il controller del disco a
gestire la trasmissione della richiesta al drive, e a restituire tramite il bus del PC le
informazioni ivi reperite. Come è accaduto per tutte le tecnologie dei computer, i
controller hanno subito notevoli miglioramenti nel corso degli ultimi anni. I
controller originali dei PC erano schede hardware inserite in un connettore a pettine
(slot) della scheda madre e collegate alle unità a disco tramite piattina a più
conduttori. Col tempo i costruttori delle unità a disco hanno spostato i circuiti
elettronici sui drive, permettendo a questi di svolgere autonomamente una maggior
parte della gestione dei dati, e riducendo i controller a semplici meccanismi (un
vigile dal lavoro non troppo impegnativo). I controller attuali non richiedono più
alcuna scheda per i loro circuiti elettronici. I produttori hanno cominciato, infatti, a
integrare questi semplici controller direttamente sulla scheda madre, e su quasi tutte
le schede madri dei nuovi PC sono presenti ora i relativi connettori collegati alle
unità a disco.
In qualità di canale di comunicazione primario fra la scheda madre del PC e le unità
a disco, il controller svolge un ruolo critico sulle prestazioni generali del sistema.
Con l'aumento progressivo delle dimensioni dei programmi e dei file dati, diventa
essenziale realizzare trasferimenti rapidi e affidabili fra sistema e drive. Fisicamente,
un controller consiste di uno o più circuiti integrati di controllo, altri componenti
elettronici di supporto e un connettore per collegarsi ai drive e alle periferiche. Il
controller vero e proprio fornisce l'intelligenza necessaria per comunicare con i vari
drive e per gestire le transazioni senza disturbare continuamente la CPU per ottenere
risorse e permessi. I circuiti logici di supporto svolgono funzioni quali fornire un
59
deposito per i bit, che possono così venire elaborati senza il rischio di perdite di dati.
I controller intelligenti possono svolgere le transazioni più velocemente e con minori
interferenze con le altre attività del sistema. Una volta iniziata una transazione,
possono operare senza più bisogno di interventi della CPU. I dati possono così fluire
liberamente dal disco fisso alla memoria principale del sistema, mentre la CPU resta
libera e può gestire, per esempio, il ricalcolo di un foglio elettronico.
SCSI è la sigla di Small Computer System Interface. Man mano che passavano gli
anni i controller SCSI si sono evoluti. Una seconda versione di SCSI è stata chiamata
Fast SCSI o SCSI-2. Questa nuova versione offre il supporto a varie periferiche, oltre
ai dischi fissi, e aumenta il potenziale di trasferimento dati. Recentemente è uscita
una nuova versione detta Ultra SCSI (SCSI-3), che incrementa ancora di più la
velocità di trasferimento dati.
La SCSI ha avuto il suo principio nel mondo dei Minicomputer, ma è stata poi
portata su Macintosh Apple dove è prosperata. Gli adattatori SCSI permettono di
concatenare assieme sette diversi tipi di periferiche (dischi fissi, scanner, stampanti e
cosi via), tutti controllati da una scheda adattatrice. Un adattatore SCSI-2, per
esempio, fornisce 8 diversi indirizzi per le periferiche, uno dei quali viene usato dallo
stesso adattatore. Ne consegue che sette periferiche distinte possono usare lo stesso
controller. La flessibilità della SCSI va anche oltre. Dei bridge controller sofisticati
possono collegare sette periferiche per ciascun indirizzo di periferica SCSI. Ciò
significa che a un singolo adattatore SCSI si possono collegare fino a 49 periferiche.
Si provi a paragonare questo numero col massimo di 4 periferiche ammesse dall'IDE.
Gli elementi a sfavore che hanno condizionato molto la sua diffusione sono dovuti ai
costi e alla difficoltà d'uso.
IDE sta per Integrated Drive Electronics e originalmente è derivata dai dischi fissi
del PC IBM AT, il primo personal computer a 16 bit. Il vero nome dello standard è
ATA (AT-Attachment). Il significato della sigla IDE è molto appropriato. Queste
unità infatti collocano la maggior parte dell'elettronica del controller sul supporto del
disco e non su una scheda separata. Ne risulta un modello che riduce i costi di
fabbricazione, e ha contribuito a farne uno standard affermato nei PC. Anche lo
standard IDE ha avuto vari miglioramenti col tempo. La versione più recente e più
diffusa viene detta EIDE (Enhanced Integrated Drive Electronics).L'EIDE permette
di avere un controller primario e uno secondario, a cui di possono collegare fino a 4
periferiche. La formidabile diffusione che questo tipo di controller ha avuto è dovuto
al fatto che l'IDE era in linea con le specifiche BIOS che erano allora presenti nella
maggior parte dei sistemi. In pratica, la maggioranza dei sistemi sono dotati di
60
controller IDE integrati sulla scheda madre, che non richiedono nessuna
installazione. I due canali sono equivalenti tra di loro, mentre i due drives collegati
su ciascun canale, rispettivamente chiamati Master e Slave, hanno una priorità di
utilizzo del canale (Prima i Master poi gli Slave). Inoltre i controller IDE risultano
molto mero cari dei controller SCSI. Possiamo individuare gli svantaggi, oltre che
nel limitato numero di periferiche supportate, anche nella velocità di trasferimento
dei dati che nonostante tutti i vari miglioramenti, rimane al di sotto dello standard
SCSI. L’estensione ATAPI (ATA Packet Interface) ha permesso di controllare oltre
a dischi fissi anche Cd-Rom, masterizzatori, lettori DVD e unità a dischi estraibili.
Standard ATA
Velocità di trasferimento dati
PIO Mode 0
3,33 MB/s
PIO Mode 1
5,22 Mb/s
PIO Mode 2
6,66 Mb/s
PIO Mode 3
11,11 Mb/s
PIO Mode 4
16,66 Mb/s
UDMA2
33,3 Mb/s
Controller avanzati UltraATA
UDMA4 (FastATA, UDMA66)
66,6 Mb/s
UDMA5 (FastATA, UDMA100)
100 Mb/s
Tipiche velocità di trasferimento dati nel Bus ATA/IDE
A livello fisico i cavi ATA/IDE sono composti da 40 contatti e 40 fili, sono a forma
di nastro piatto e contengono tre connettori, due per i dischi e uno per il controller. I
cavi utilizzati nei sistemi UltraATA invece hanno 80 fili, di cui 40 di massa per
stabilizzare il segnale, e connettori colorati perché le specifiche prevedono posizioni
standard sul cavo per Master, Slave e Controller.
I dischi fissi
Un altro importante componente del PC è l'hard disk (disco fisso). All'interno di ogni
sistema troveremo sempre almeno un hard disk che ha il compito di mettere a
disposizione sia alla memoria di sistema che alla CPU le informazioni, sia in lettura
che in scrittura. Ad esempio quando si lancia un'applicazione per l'elaborazione testi,
il programma eseguibile viene letto dal disco fisso e caricato nella RAM. Poi,
quando si apre un documento salvato in precedenza, anche questo file viene letto dal
disco e caricato nella RAM. Tutte le modifiche che vengono apportare a quel
documento vengono poi riscritte sul disco fisso quando si salva il file. Linux e altri
sistemi operativi fanno fare inoltre al disco fisso anche gli straordinari,
impegnandolo come serbatoio nel caso di superamento della capacità di memoria
RAM di sistema. Quando viene caricato un numero eccessivo di applicazioni e di
file, quelli usati meno di recente vengono nuovamente riscritti sul disco. Ai
programmi si fa intendere che i vari bit stiano ancora sulla RAM, ma quando i dati
vengono richiamati il sistema operativo ricava in realtà le informazioni dal disco
fisso. Questo modo di operare, chiamato memoria virtuale, amplia le funzionalità di
tutti i PC, ma esige un caro prezzo in termini di prestazioni: infatti nei trasferimenti
di dati i dischi fissi sono 100 volte meno veloci della RAM. Dal punto di vista fisico,
l'hard disk opera in modo simile a un vecchi giradischi: una serie di dischi di
61
materiali ceramici o di alluminio svolge il ruolo dei vecchi dischi in vinile su cui era
registrata la musica. Ogni disco, o piatto, è ricoperto con una fine pellicola
magnetica detta thin film (strato sottile), su cui vengono scritti e letti i dati. Un
motore, detto spindle, fa ruotare i dischi a velocità che vanno da 5.400 a 10.000 giri
al minuto. Una testina di lettura/scrittura, che corrisponde alla puntina del giradischi,
letteralmente "galleggia" sopra ciascun disco a una distanza di qualche micron,
leggendo o registrando minute cariche magnetiche che vengono interpretate come 1
o 0. Per la registrazione dei dati, ciascun disco è suddiviso in migliaia di piste
circolari concentriche, a loro volta suddivise in settori. Il settore è l'unità elementare
più piccola della struttura del disco, e i bit registrati sono indirizzabili in base alla
loro posizione nel settore. Si ricordi che qui ci sono più dischi impilati sullo stesso
asse, ognuno suddiviso in sottili anelli concentrici detti tracce o piste. Le tracce che
risultano sovrapposte sui vari dischi nel loro insieme costituiscono un cilindro. La
cosa è importante perché, quando l'attuatore delle testine sposta una testina di
lettura/scrittura su una particolare pista di un disco, anche tutte le altre vengono
spostate sulla medesima traccia dei dischi corrispondenti. Quando una testina si
sposta su una particolare traccia in un disco, tutte le piste del medesimo cilindro sono
pure accessibili allo stesso tempo.
Ultimamente siano andati incontro a molti problemi per quanto riguarda la gestione
dei dischi. Il primo metodo di indicizzazione dei dischi permetteva di riconoscere
l’area in cui un dato era memorizzato indicando le tre coordinate CHS (Cylinder,
Head, Sector) corrispondenti, dove i Cilindri erano delle zone concentriche del disco
(come le tracce dei 33 giri), le testine indicavano quale piatto conteneva i dati cercati
e i settori erano delle zone di 512 bytes in cui erano suddivisi i Cilindri. Questa
architettura, però, aveva un limite. Quello dei 504Mb (Binari, 528 Mb decimali)
derivati dai limiti del BIOS (Massimo 16 testine), dello standard ATA/IDE (63
Settori per traccia) e di DOS (1024 cilindri per traccia). Per superare questo primo
limite, uscirono delle nuove versioni del BIOS che supportavano una “traduzione”
dei parametri, estendendo il limite delle testine e traducendo un numero maggiore di
cilindri necessari come se fossero Testine aggiuntive (2000 Cilindri e 16 testine
diventavano 1000 cilindri e 32 testine, in modo che il DOS non perdesse i 976
cilindri al di la dei 1024 supportati). Questo modo è chiamato LBA (Logical Block
Addressing) ed è utilizzato solo con sistemi Windows, poiché File Systems di altri
produttori non soffrono di questo limite. Altri limiti successivi alla dimensione dei
dischi sono solo legati alla gestione dei dati da parte del Sistema operativo, non dagli
standard Hardware.
62
Compact Disc
Con la stessa tecnologia ottica utilizzata per i Compact Disc musicali, è possibile
incidere un dischetto contenente un archivio di dati.
Un CD permette solo la lettura e mai la registrazione. La sua fabbricazione prevede,
infatti, non una registrazione diretta sul dischetto, ma la pressofusione in plastica di
ciascun esemplare a partire da un originale. Per questa limitazione, i Compact Disc
vengono anche chiamati CD-ROM, assimilandoli alla memoria ROM, di sola lettura.
La superficie del dischetto è composta da minuscole scanalature che rappresentano i
singoli bit. Un raggio laser, all'interno del disk drive, colpisce la singola scanalature
e il disk drive è in grado di tramutare la rifrazione del raggio in segnali elettrici da
inviare al computer.
Esistono disk drive per CD-ROM singoli o multipli. In questo caso si possono
inserire nel lettore più Compact Disc, che possono essere alternati in lettura senza la
necessità di effettuare lo scambio materialmente. I lettori di CD-ROM (CompactDisc Read-Only Memory) hanno notevolmente contribuito al boom multimediale dei
personal computer. I dischi compatti possono memorizzare ben 650 MB di dati su un
singolo disco, facilmente trasportabile, permettendo agli sviluppatori di software e di
prodotti multimediali di includere grandi file audio e video nelle loro applicazioni e
videogame. Gli utenti hanno subito gradito molto questi dischi economici, durevoli
(rispetto ai dischetti) e di grande capacità. I CD-ROM, di conseguenza, sono
diventati il supporto di memoria di massa rimovibile più diffuso mai conosciuto fino
a oggi dai PC.
Oggi praticamente quasi tutti i PC vengono forniti completi di lettore di CD-ROM.
Con tale diffusione dei drive per CD-ROM tutti, dai produttori di applicazioni ai
creatori videogame, hanno scelto i CD-ROM come mezzo di supporto preferenziale.
La tecnologia dei CD-ROM progredisce rapidamente e le velocità dei drive
aumentano di un fattore 5 o 6 volte ogni due tre anni. Diversamente dai supporti che
registrano su strati magnetici, come i dischetti e i dischi fissi, i CD-ROM usano una
tecnica laser per leggere (e scrivere, nel caso dei CD-R, dove la R sta per Recodable
ovvero scrivibile) dati in forma digitale.
Un laser (di solito giallo) scandisce la superfice del disco in rotazione, e la luce
riflessa dal disco viene interpretata come bit. Un "pit" (incavo) profondo solo pochi
micron viene interpretato come 1 binario, e l'assenza di pit come 0. La riflessione
della luce laser cambia passando da una zona senza pit (detta land) a un pit, o da un
pit a un land.
Il cambiamento più spettacolare nella tecnologia CD-ROM (a parte quella dei
supporti di memoria scrivibili e relativi drive) riguarda la velocità. I primi drive
avevano una velocità di trasferimento dati di 150 KB/s, che venne in seguito
chiamata velocità 1X. I costruttori seguitarono a perfezionare sempre più la
meccanica dei drive, da allora è diventata conseuetudine indicare la velocità di un
drive come multiplo di quella velocità originaria. Così un drive 2X trasferisce i dati a
300 KB/s, un drive 4X a 600 KB/s, e così via. Solo pochi anni fa un drive 10X
poteva costare anche 1.000.000 di lire. Col tempo, con un numero sempre crescente
di prodotti che entravano in questo enorme mercato, i prezzi hanno subito cali
spettacolari: oggi si acquista un drive IDE 32X per 130.000 lire circa e sono già
comparsi a prezzi poco maggiori i 40X. Ma l'innovazione va ben oltre i semplici
aumenti della velocità di rotazione. Una tecnologia, sviluppata dalla Zen Research e
usata in un nuovo lettore CD-ROM della Kenwood, oggi suddivide il raggio laser in
sette raggi, tramite un gruppo di prismi e di specchi. Il drive CLV ruota solo alla
63
velocità 10X, ma grazie ai raggi plurimi, capaci di leggere contemporaneamente fino
a 7 tracce adiacenti, le prestazioni sono superlative.
Proprio come i drive a dischi fissi, i lettori di CD-ROM possono avere controller di
tipo SCSI o IDE. Diversamente dai dischi fissi, però i mediocri tempi di accesso dei
drive CD-ROM (di solito 150 ms, contro i tipici 9 ms dei dischi fissi) non mettono a
dura prova le funzioni di trasferimento dati di entrambi questi standard. Sia il
controller SCSI sia l'IDE possono gestire facilmente le velocità inferiori ai dischi
fissi anche del drive CD-ROM attualmente più veloce, per cui in questi casi la scelta
fra SCSI e IDE non inluisce sulle prestazioni.
64
Supporti di memoria a registrazione ottica
I registratori ottici o masterizzatori permettono agli utenti di PC di registrare (il
termine inglese del gergo è "master", da cui masterizzatori) da sè dischi ottici, quali i
CD-ROM e DVD, senza dover inviare i propri dati a uno degli speciali servizi che
elaborano i dati. Benché non siano fra i più facili da usare, i masterizzatori
consentono di memorizzare ingenti quantità di dati in modo economico e rapido su
dischi che poi possono venire distribuiti ad altri utenti. Questo è un settore che sta
assumendo un'importanza sempre crescente. La base installata molto ampia di unità
CD-ROM, per esempio, rende i CD scrivibili e riscrivibili uno strumento assai
potente per archiviare e distribuire grandi quantità di dati che possono essere
riprodotti su altri PC. L'avvento dei DVD promette di rendere altrettanto importanti
drive analogici con supporti ad alta densità.
I registratori ottici possono essere utilizzati per un numero sempre maggiore di
applicazioni, da quelle per uso domestico all'editoria e alla gestione dei dati. Tutti
questi drive utilizzano raggi laser per leggere le variazioni nella superfice del disco,
che il controller integrato interpreta come 1 o 0 digitali. Da questo punto di vista,
funzionano esattamente come i normali lettori di CD-ROM e DVD. Ma queste
periferiche permettono anche di inviare un raggio laser più potente su supporti
speciali, e così di scrivere dati sui dischi. In tutti i casi queste unità sono in grado di
leggere i formati di dischi precedenti. Così un drive DVD-RAM può leggere CDROM, CD-R, CD-RW e DVD ROM. Un drive CD-RW, attualmente, può leggere
CD-ROM e leggere e scrivere CD-R e CD-RW. Nessun formato di CD può però
leggere i dischi DVD, e i drive DVD-RAM non possono scrivere su CD-R o CDRW.
I CD-R: Il primo supporto a larga diffusione registrabile con raggio laser, che oggi si
è conquistata la maggior fetta di mercato. I drive CD-R si possono trovare sotto nomi
assai diversi ma tutti hanno un'unica caratteristica: su qualsiasi parte del supporto si
può registrare (scrivere) una sola volta. Sebbene poi i dati possano venire letti dal
disco quante volte si vuole, fino a quando dura il disco, non sarà più possibile
registrare sopra una traccia che è stata "incisa" da un masterizzatore CD-R. Il
maggior vantaggio dei CD-R e relativi drive è che tale supporto può essere letto
praticamente da qualsiasi unità CD-ROM: un punto molto importante, data l'estrema
diffusione raggiunta dai lettori di CD-ROM sui PC moderni. La base installata di
unità CD-ROM rende i CD-R particolarmente utili per distribuire dati ad altri. Il
funzionamento dei CD-R emula il processo usato per creare CD-ROM professionali
con l'impiego di prodotti chimici. Su un disco CD-ROM realizzato in uno studio
professionale, i dati vengono registrati sul supporto usando un laser per creare incavi
(pit) e rilievi (rise o land) lungo una traccia concentrica a spirale. Nella riproduzione,
pit e land riflettono in modo diverso il raggio laser di lettura del drive CD-ROM: un
microprocessore integrato capta le variazioni di segnale e le converte in bit, che
possono essere inviati al PC e interpretati come dati. La registrazione dei CD-R
differisce un po' da questa, perché l'apparecchio non è in grado di bruciare
agevolmente pit sul supporto. I drive CD-R utilizzano invece un supporto speciale,
che permette un'interazione chimica che crea poi l'illusione di pit e land bruciati sulla
superficie. Sopra un substrato di policarbonato che reca prestampate le piste incise
(usate per allineare i pit corrispondenti ai dati) viene posto uno strato che contiene un
colorante reattivo, fotosensibile, e uno strato riflettente. Il processo ha luogo nello
strato fotosensibile del colorante, che reagisce quando è esposto alla specifica
lunghezza d'onda del laser della testina di scrittura. Quando il raggio laser riscalda un
punto sul disco, esso diventa meno riflettente rispetto alle aree vicine non toccate dal
65
raggio, e produce così il medesimo effetto di un pit bruciato su un normale CDROM. Dato che la composizione del colorante viene alterata dal laser, su ciascun
punto del disco CD-R si può scrivere in questo modo una sola volta.
Nel corso dell'ultimo anno i drive CD-RW (CD-ReWritable) sono diventati una
opzione di masterizzazione importante. Queste unità utilizzano una combinazione
della tecnica di scrittura a pacchetti variabili e un supporto del disco a cambiamento
di fase (sviluppato a suo tempo da Panasonic-Matsushita) che permette sia di
scrivere sia di riscrivere sui CD-RW. I drive CD-RW possono masterizzare anche gli
economici CD-R, e costituiscono quindi un'opzione estremamente versatile per chi
vuole distribuire dati multimediali, scambiare file e creare backup. I drive CD-RW
coprono l'intervallo fra dischi CD-R (non riscrivibili) e i DVD-RAM (che possono
essere letti solo da una piccola parte di drive ottici). Il supporto a cambiamento di
fase, d'altro canto, si differenzia sostanzialmente dall'approccio dei normali CDROM. Qui un sottile supporto a struttura cristallina viene sottoposto a un impulso
laser per scrivere i bit. L'energia altera la struttura cristallina del supporto, e fa sì che
la sostanza da assorbente della luce diventi riflettente. Un drive può determinare il
valore del bit in base al fatto che il raggio laser ritorni riflesso al detector o venga
assorbito dal supporto. Ogni porzione del supporto può subire questa alternanza di
stati fino a 1000 volte nel corso della vita di un disco. Purtroppo, la CD-RW obbliga
ad accettare un certo numero di compromessi, che possono rendere meno facile
raccomandarne l'uso. Innanzitutto, tali dischi non vengono letti dalle unità CD-ROM
e CD-R meno recenti: è necessario usare un drive recente, che si conformi allo
standard MultiRead per poter leggere i CD-RW. La compatibilità coi CD-R, invece,
e già assicurata dai lettori di CD-ROM venduti negli ultimi anni. I masterizzatori
CD-RW sono inoltre ovviamente più cari dei loro cugini CD-R. Le velocità di lettura
raggiungono i 24X (sui modelli recenti), ma la masterizzazione di CD-R avviene a
velocità 4X. Inoltre, mentre i CD-ROM possono contenere fino a 650 MB di dati, i
CD-RW arrivano solo a 480MB, perchè le tabelle di assegnazione dei file richieste
per consentire più scritture consumano da sole più di 100 MB di spazio su ciascun
CD-RW. Ma forse il maggior problema dei CD-RW è che molti lettori di CD-ROM e
CD-R non sono in grado di leggere questi dischi. I drive meno recenti non sono
capaci di distinguere le minute variazioni di riflessione nei materiali a cambiamento
di fase dei CD-RW. Per questo motivo il CD-RW risulta adatto più per il backup dei
dati che per distribuire file su larga scala. Non sorprende che il prezzo dei drive CDRW sia maggiore di quello dei CD-R. Anche i dischi CD-RW costano di più, circa
4.000 lire per disco, mentre il prezzo dei CD-R e di circa 1.500 lire.
Masterizzatori CD-R
La diffusione e la praticità dei CD-ROM ha avuto un notevole incremento con la
nascita e la diffusione dei masterizzatori da scrivania per registrare dati su CD-ROM
scrivibili.
Produrre CD-ROM era un procedimento macchinoso, lungo e costoso. Bisognava
mettere a punto, registrandolo su un normale disco rigido, un prototipo del contenuto
del CD-ROM, verificando e correggendo al massimo il software ed i dati, in quanto
poi sarebbe stato impossibile correggere i CD-ROM prodotti. Questo originale
doveva essere affidato ad una società specializzata, la quale provvedeva, con costosi
dispositivi, a produrre una singola copia del CD-ROM, chiamata master. Una volta
riesaminato il master, ed eventualmente producendone un altro definitivo, questo
veniva utilizzato per lo stampaggio dei CD-ROM da commercializzare.
La verifica del master doveva essere accuratissima, in quanto un errore presente sul
master portava alla tragica situazione nella quale tutti i CD-ROM prodotti dovevano
66
essere buttati via per stamparne altrettanti con il software corretto.
Gli impianti per lo stampaggio dei CD-ROM sono identici a quelli per i CD musicali,
quindi erano le stesse aziende che ne effettuavano la produzione. Un numero basso
di copie portava ad un altissimo costo per la singola copia di CD-ROM, tanto più che
si doveva ammortizzare anche il costo di masterizzazione. Tirature inferiori alle
1.000 copie avevano costi proibitivi.
La diffusione dei lettori di CD-ROM ed il loro abbassamento di prezzo hanno
ampiato la base degli acquirenti, e questo ha reso più economico stamparli.
Effettuare poche diecine di copie, tuttavia, era ancora anti-economico.
I masterizzatori da scrivania hanno risolto il problema, rendendo possibile ed
economico produrre non solo poche copie di un CD-ROM, ma addirittura uno solo.
Sono nati i CD-R, cioè CD-ROM scrivibili, che possono immagazzinare fino a 650
Mb di dati o software.
I CD-R sono diversi dai CD-ROM. Mentre questi ultimi sono stampati
meccanicamente ed immodificabili, i CD-R possono essere sia letti (anche dai
normali lettori per CD-ROM) che scritti. La sua superficie è ricoperta da un
materiale policristallino che, scaldato ad alta temperatura dal raggio laser, passa dallo
stato riflettente a quello amorfo, non riflettente.
Il problema è che l’operazione di scrittura su un CD-R può avvenire una sola volta.
Il problema era più complesso con i primi masterizzatori, che utilizzavano la
tecnologia Disk at Once. Cioè una volta registrato qualcosa su un disco, non si
poteva più aggiungere nulla. Poiché la quantità di dati che si possono immagazzinare
su un CD-R è notevole, occorreva parecchio tempo prima che si riuscisse a mettere
insieme 650 Mb di dati da archiviare. D’altra parte era poco economico utilizzare un
CD-R per registrarvi solamente 20 o 40 Mb.
La seconda generazione di masterizzatori utilizza la tecnologia multisessione Track
at Once. Cioè si può registrare sul CD-R anche in più sessioni, in tempi diversi.
L’unità minima di registrazione è la traccia, e per ogni sessione di registrazione si
possono registrare una o più tracce, fino a raggiungere il numero massimo di 99.
Ovviamente basta impegnare una traccia anche solo per pochi dati, perché quella
traccia non sia più disponibile nella sessione successiva.
Mentre il contenuto del disco non è ancora definitivo, il CD-R può essere letto
solamente dal masterizzatore e non viene riconosciuto dai lettori di CD-ROM. Il CDR diventa CD-ROM, cioè può essere letto dai normali drive, solamente quando vi si
registrano le informazioni necessarie perché sia riconosciuto. Da questo momento
non si possono aggiungere più tracce.
Entrambe queste tecnologie hanno un grosso inconveniente: il flusso dei byte dal
computer al laser deve essere continuo ed ininterrotto. Se si verifica il minimo
inconveniente (magari dovuto ad un’attività in multitasking, all’intervento di un
salvaschermo, al controllo periodico di un antivirus...) il processo di scrittura si
interrompe ed il CD-R diventa inutilizzabile. Questo errore, terrore di chiunque
lavori con i masterizzatori, si chiama “buffer underrun”.
Una volta finita la registrazione sul CD-R, questo diventa un normale CD-ROM,
conforme allo standard ISO 9660, con l’unica differenza che i normali CD-ROM
sono di colore argentato ed i CD-R sono dorati. Questa colorazione dipende dal
materiale policristallino presente sulla sua superficie. Esistevano CD-R con altri
materiali, di colori verde e celeste, ma avevano prestazioni inferiori.
I masterizzatori hanno, di solito, due velocità: una di scrittura ed una di lettura. La
velocità di scrittura è ovviamente inferiore a quella di lettura, in quanto l’operazione
è molto più complessa. In lettura abbiamo velocità fino a 6x, mentre in scrittura
possiamo avere 2x o 4x.
67
Masterizzatori CD-RW
I normali masterizzatori per CD-ROM consentono di registrare sul CD-R una sola
volta. I masterizzatori di tipo CD-RW, invece, posso essere utilizzati come un vero e
proprio hard disk, poiché consentono di registrare, cancellare e di nuovo registrare
dati sul CD-ROM anche parzialmente ed in tempi diversi.
La tecnica di registrazione viene chiamata Packet Writing, e consiste nella capacità
di inviare dati al masterizzatore suddivisi in pacchetti, ognuno di dimensioni inferiori
alla capacità del buffer, evitando così il famigerato errore “buffer underrun” tipico
dei masterizzatori Disk At Once o Track At Once.
Ciascun CD-RW può essere cancellato e riscritto totalmente per 1.000 volte circa. E’
indubbiamente un passo avanti rispetto ai CD-R immodificabili, anche se ancora
lontano dai dischi ottici cancellabili e riscrivibili fino a un milione di volte.
La tecnologia è simile a quella CD-R: un laser che scalda ad alta temperatura lo
strato policristallino e lo rende amorfo. La cancellazione, cioè la possibilità del
materiale cristallino a tornare riflettente, si ottiene scaldandolo a temperatura meno
alta ma per più tempo.
Vi sono, però, due grossi problemi che ne ostacolano la diffusione.
Il primo è che i CD-RW adottano un nuovo standard, ISO 13490, incompatibile con
ISO 9660 e quindi con hardware e software che riconosca solamente il ISO 9660. In
particolare, con i lettori di CD-ROM prodotti prima dell’invenzione dei CD-RW.
D’altra parte ISO 9660 è un formato statico ed i file di sistema non possono essere
modificati, è adatto cioè ad un disco immodificabile e non è possibile utilizzarlo per
dischi modificabili.
Il secondo problema è di natura hardware: i CD-RW, in lettura, riflettono molto
meno la luce del laser, solamente un quarto di quella riflessa dai CD-ROM. E questo
rende impossibile a molti dispositivi di utilizzarli.
In pratica, i CD-RW possono essere letti con sicurezza solamente dai masterizzatori
CD-RW e da pochi altri lettori: quelli Multi Read e i lettori di DVD (ma non tutti).
Data la scarsa diffusione, i masterizzatori CD-RW hanno ancora un alto costo, così
come i singoli CD-RW. Questi ultimi, ad esempio, costano 5 volte più di un CD-R.
68
Digital Versatile Disk (DVD)
Se si ha una certa familiarità coi lettori di CD-ROM, comprendere i DVD-ROM
dovrebbe essere abbastanza facile. In fin dei conti, esternamente i relativi drive
sembrano identici ai lettori di CD-ROM. Anche i lettori di DVD-ROM usano un
meccanismo ottico basato su raggio laser per leggere i dati da dischi di dimensioni
standard. Perfino i dischi sembrano identici, anche se i DVD-ROM hanno una
maggiore densità di tracce, che permette di registravi sopra ingenti quantità di dati. I
lettori di DVD-ROM inviano sul disco un raggio laser di colore rosso. Il meccanismo
rileva le variazioni della luce laser riflessa dalla superficie del supporto e le
interpreta come 1 e 0. I drive DVD-ROM differiscono dai lettori di CD-ROM perché
il raggio laser è molto più focalizzato e di colore diverso da quello utilizzato nei
lettori di CD-ROM. Anche fra i supporti dei DVD-ROM e dei CD-ROM esistono
analogie e differenze. Entrambi hanno minutissime incavature sulla superficie (dette
pit), che il meccanismo ottico interpreta come dati. I drive DVD-ROM però hanno
pit molto più ravvicinati e tracce concentriche più compatte, che possono contenere
molti più dati su di un disco. Numerosi centri di ricerca hanno cominciato a studiare i
modi per aumentare la capacità di memorizzare dei dischi e dei lettori di CD-ROM.
Nuove tecniche di fabbricazione e tecniche laser perfezionate hanno spianato la via
per ottenere capacità di memoria ben oltre il limite dei 650 MB dei CD-ROM. Sono
emerse così ben presto due organizzazioni e due specifiche di progetto concorrenti:
Super Density, da parte di un gruppo di società guidate da Toshiba, e il Multimedia
CD della Philips. Ciò minacciava di diventare il classico caso di blocco reciproco di
standard, che poteva mettere in pericolo il successo del nuovo standard. Avendo
presente la costosa battaglia degli anni '80 fra gli standard concorrenti per le
videocassette (VHS e Betamax), alla fine i due gruppi nel 1996 decisero di cooperare
per definire uno standard unificato. Il risultato venne chiamato DVD. Varie richieste
da parte dell'industria cinematografica hanno però reso più complesso il progetto
iniziale. Questo settore vedeva nel DVD un supporto eccezionale per la distribuzione
nell'ambito domestico di film a elevata qualità.
I lettori DVD-ROM esistono in due formati:
 Riproduttori di DVD
 Drive per DVD-ROM
Intesi per l'uso negli ambienti domestici, i riproduttori (lettori) di DVD sono scatole
che possono essere inserite direttamente nei televisori: in pratica sono gli eredi degli
attuali VCR e riproduttori Laserdisc.
Per i PC, invece, i lettori di DVD-ROM hanno l'aspetto di lettori di CD-ROM e
funzionano esattamente nello stesso modo. Hanno bisogno, però, di hardware
aggiuntivo, di solito una scheda di espansione che gestisce le complicate operazioni
per l'elaborazione video e audio, oltre a decifrare i dati del disco. In pratica, il DVD è
costituito da quattro specifiche in una, con tecniche separate per memorizzare da 4,7
a 17 GB di dati su un singolo disco. Sfruttando la stratificazione dei supporti e
l'impiego di entrambe le facce del disco, sono supportati quattro livelli:
 Faccia singola, singolo strato: 4,7 GB
 Faccia singola, doppio strato: 8,5 GB
 Faccia doppia, singolo strato 9,4 GB
 Faccia doppia, doppio strato 17 GB
Tutti i dischi DVD, indipendentemente dalla loro capacità, hanno diametro e
spessore eguali a quelli dei normali CD-ROM (diametro di 12 cm e spessore di 1,2
69
mm). Attualmente è disponibile il primo e meno capace tipo di DVD, quello da 4,7
GB. Entro poco tempo dovrebbero seguire gli altri. Fortunatamente, tutti i
riproduttori di DVD e lettori di DVD-ROM venduti oggi saranno in grado di leggere
tutti i formati. Una buona notizia è che alcune migliorie costruttive hanno permesso
agli attuali impianti di fabbricazione di lettori di CD-ROM di essere ristrutturati per
fabbricare DVD-ROM. Il cambiamento più importante riguarda la tecnica di
incollaggio, in cui due sottili dischi di 0,6 mm (substrati) vengono assemblati per
crearne uno solo dello spessore di 1,2 mm. Il primo substrato, non presente sui CDROM, fornisce la funzionalità "doppio strato" che può contenere un altro livello di
dati memorizzati. In pratica, i DVD sono due dischi in uno.
Considerazioni finali
I primi personal della storia dell'informatica utilizzavano cassette con nastro
magnetico, le stesse usate per la registrazione audio. Il caricamento dei programmi
era molto lento, ancora di più lo era la ricerca di un particolare punto del nastro con
il documento che volevamo richiamare, ed ancora più lenta la registrazione del
lavoro svolto.
Con l'aumento della capacità di memoria dei computer, con il crescere della loro
potenza e della complessità che certi programmi richiedono per la registrazione dei
loro documenti, ma soprattutto con il nascere di applicazioni grafiche e multimediali,
si è acuita la necessità di usufruire di unità di memoria di massa sempre più capaci e
sempre più veloci. Possiamo dire che le memorie di massa che abbiamo esaminato
corrispondo ognuna a diverse esigenze di archiviazione, alla quale cercano di
corrispondere in modo ottimale.
La commercializzazione del software e la registrazione di documenti di piccole
dimensioni viene effettuata tramite i floppy disk da 5,25 pollici o da 3,5 pollici. Si
tratta di una memoria di massa adottata da tutti i computer e che garantisce la
massima adattabilità. Sono utilizzati per il trasferimento di dati fra computer non
collegati in rete, ma sono limitati a documenti non più grandi della loro limitata
capacità di archiviazione.
Il lavoro quotidiano viene svolto leggendo e registrando su dischi rigidi interni. La
capacità può essere scelta fra una vasta gamma di dimensioni, a seconda delle
esigenze di archiviazione. La velocità di accesso, cioè la velocità con cui il dato
viene letto, è ottima ed i prezzi ormai contenutissimi.
Nella configurazione di base di tutti i computer commercializzati è presente un disco
rigido interno. La sua capacità varia in proporzione alla potenza del personal.
Comunemente si va da 20Mb 0 40Mb, per i modelli inferiori, fino ai 160Mb o più
per i modelli superiori.
I dischi rigidi rimovibili sono il mezzo adatto al trasferimento di un numero cospicuo
di dati, o per documenti molto voluminosi, fra due computer non collegati in rete. I
dischi rigidi rimovibili hanno capacità di archiviazione paragonabile a quella di un
disco rigido fisso, con in più la praticità di poterlo cambiare molto velocemente. In
alcuni casi possono essere una valida alternativa ai dischi rigidi esterni.
I dischi rigidi rimovibili sono anche indicati per la conservazione storica dei
documenti, poiché consentono una rapida ricerca e lettura del singolo documento.
Le unità di memoria di massa a nastro sono il mezzo ideale per effettuare copie di
riserva di archivi di dati, grazie alla loro alta velocità di registrazione ed al basso
costo delle cartucce. Si possono copiare i dati contenuti in un computer, od in una
intera rete di personal, in poco tempo e conservare le cartucce indefinitamente senza
dover immobilizzare un capitale.
70
I Compact Disc ottici, per la loro caratteristica di consentire solo la lettura, sono
utilizzati per la consultazione di opere che, tradizionalmente, erano stampate in libri.
Codici, giurisprudenza, manuali, dizionari, vocabolari, annuari, ma anche opere
letterarie come la Divina Commedia o la Bibbia.
Il CD consente di effettuare rapide ricerche incrociate di singole parole o di
argomenti, ricavando istantaneamente le referenze ed i testi relativi, rivelandosi un
mezzo rivoluzionario di lavoro. L'unica controindicazione è l'alto prezzo delle opere
pubblicate su Compact Disc, molto superiore alle stesse in edizione stampata su
carta.
Una applicazione recente del Compact Disc ottico è nel campo educativo e culturale.
Sul CD possono essere registrate immagini, testi e suoni, il tutto in modo omogeneo
e strutturato per formare uno strumento di conoscenza efficace.
Il computer consente di navigare fra tutte queste informazioni e di presentarle
secondo tutte le possibili combinazioni desiderate dall'utente. Questa applicazione,
chiamata multimedialità, rappresenta una grossa risorsa di sviluppo per i computer
del futuro.
I dischi ottici scrivibili vengono utilizzati quando sia necessario avere a disposizione
un numero ingente di documenti. Esistono disk drive ottici in grado di ospitare
contemporaneamente molti singoli dischi ottici, sia in lettura che in registrazione.
Questi dispositivi, chiamati juke box ottici, sommano così molte centinaia di
megabyte di capacità di archiviazione.
E' quasi un obbligo ricorrere a queste unità di memoria di massa quando si deve
lavorare con immagini grafiche, sia di illustrazioni che di fotografie digitalizzate. Un
singolo documento contenente una immagine a colori richiede molte centinaia di
kilobyte ed anche il disco rigido più capace ne sarebbe, in breve tempo, saturato.
Si tratta dell'unità di memoria di massa più costosa, sia per i singoli dischi che per i
disk drive.
La standard SCSI
Molte unità di memoria di massa, o meglio i loro disk drive, appartengono allo
standard industriale SCSI, da Small Computer System Interface, che consente il
collegamento di più dispositivi, fino a sette, utilizzando una sola scheda di
interfaccia. Le unità che non corrispondono a questo standard richiedono una scheda
ciascuna.
La praticità è evidente, così anche il risparmio. A ciò si deve aggiungere la
portabilità: le unità di memoria di massa SCSI sono trasferibili da computer a
computer, sia nello stesso ambiente operativo che in altri, senza alcuna modifica.
Questi standard viene messo in commercio con due differenti ampiezze di BUS dati,
8 e 16 bit, con rispettivamente 8 e 16 periferiche concatenabili su ogni canale.
Siccome il controller è contato come periferica, ecco che rimangono 7 o 15 indirizzi
disponibili. Ciascuna periferica utilizzata è identificata da un numero SCSI ID,
impostabile arbitrariamente, e gli estremi della catena SCSI devono essere terminati,
di solito tramite un interruttore che attiva una resistenza sul connettore. Qui di
seguito viene illustrata la gamma di specifiche delle versioni SCSI.
Ampiezza
del Bus
8-bit
(narrow)
16-bit
SCSI
Standard
5 Mb/s
Fast
SCSI
10 Mb/s
Ultra SCSI
Ultra-3
SCSI
Ultra320
SCSI
20 Mb/s
Ultra-2
SCSI
40 Mb/s
10 Mb/s
20 Mb/s
40 Mb/s
80 Mb/s
160 Mb/s
320 Mb/s
71
(wide)
72
Modem e telecomunicazioni
Il modem è una apparecchiatura che serve per mettere in contatto due computer
distanti fra di loro, tramite la linea telefonica analogica o digitale.
La parola modem deriva da una sintesi dei termini “modulatore” e “demodulatore”
ed esprime il suo funzionamento con le linee telefoniche analogiche, per le quali è
nato. Queste linee sono adatte alla trasmissione di suoni, non di impulsi digitali.
I bit, quindi, non possono transitare così come sono, ma devono essere prima
trasformati in suoni, o meglio in “fischi” modulati. Questa è la prima funzione del
modem: ricevere i bit dal computer e trasmetterli come suoni.
La seconda funzione del modem è di compiere il procedimento inverso: trasformare i
suoni modulati, che arrivano dalla linea telefonica, in bit da inviare al computer.
Con questa “traduzione simultanea” due computer possono scambiarsi dati (bit)
trasmettendosi “fischi”. E’ lo stesso procedimento utilizzato dai fax, ed a tutti è
capitato di comporre un numero telefonico e di sentirsi rispondere da una serie di
fischi acuti: è la “voce” di un fax che risponde al telefono.
Utilizzando la stessa procedura di modulazione/demodulazione, modem e fax
possono quindi essere integrati in una stessa apparecchiatura, il modem/fax.
Modulazione e demodulazione
Il modem viene collegato da una parte alla porta seriale del computer, dall’altra alla
linea telefonica. Con un software di comunicazione il modem è in grado di
selezionare un numero telefonico, all’altro capo del quale si trova un secondo
modem, collegato da parte sua ad un computer sul quale è in esecuzione un software
di comunicazione.
Il flusso di bit dei dati del primo computer esce dalla porta seriale ed arriva al
modem. Qui il circuito di modulazione provvedere a trasformare i bit in frequenze
sonore che possono essere inviate lungo le linee telefoniche.
Il secondo modem riceve le frequenze sonore e, con un circuito di demodulazione, le
trasforma in bit, inviandone il flusso alla porta seriale del computer cui è collegato.
Con questo semplice passaggio, di modulazione di frequenze sonore alla partenza e
di demodulazione all’arrivo, è possibile connettere due computer come se fossero a
pochi centimetri di distanza. L’unica differenza sta nella velocità di comunicazione.
Mentre il flusso di dati può viaggiare fino a 230’000 bit al secondo se i due
computer sono in connessione diretta, la velocità massima permessa dalle
linee telefoniche è di 56’600 bit per secondo, ma i disturbi, le interferenze e
le difficoltà di ricezione spesso costringono ad utilizzare velocità di 28’800
bit per secondo, a addirittura inferiori.
Protocolli
Come abbiamo visto parlando delle porte del computer, la trasmissione seriale di dati
impone la scelta del protocollo, che non riguarda solamente la velocità, ma anche
l’esistenza di codici di controllo ed il formato del flusso dei bit.
Poiché la trasmissione di dati molto spesso coinvolge nazioni diverse, i protocolli
utilizzabili sono stati definiti da un organismo internazionale, il Comitato Consultivo
Internazionale per la Telegrafia e Telefonia. Il CCITT ha stabilito numerosi standard,
ed a questi si sono uniformati tutti i costruttori di modem.
Negli Stati Uniti si usano standard diversi per la trasmissione dati, definiti Bell, dalla
ditta che li ha elaborati.
Ovviamente i due modem corrispondenti ai due capi della linea telefonica, devono
73
essere preimpostati con lo stesso protocollo, altrimenti la trasmissione è impossibile.
Commutata e ISDN
I modem si possono dividere in due grandi settori: quelli per linee telefoniche
commutate e quelli per linee telefoniche ISDN.
Le linee telefoniche commutate sono le normali linee telefoniche. La comunicazione
si effettua tramite la selezione di un numero telefonico e l’instradamento attraverso
vari centraline su linee utilizzate contemporaneamente anche da altri utenti per
diverse collegamenti.
Le linee ISDN sono installazioni particolari con le quali il collegamento fra i due
punti, pur utilizzando spesso, almeno in parte, le normali attrezzature telefoniche, è
elaborato con particolari tecnologie che permettono una trasmissione senza alcun
errore e più veloce.
La differenza è sostanziale. Nel caso della linea commutata i due computer lavorano
isolati per la gran parte del loro tempo, salvo effettuare una telefonata quando è
necessario uno scambio di dati. La linea è però soggetta a disturbi derivati
dall’instradamento e dalla condivisione della linea. Nel caso della linea ISDN
scambio di dati è assente da disturbi.
Nell’uno e nell’altro dei casi è necessario un modem a ciascun capo della linea, ma i
modem per linea commutata sono del tutto diversi da quelli per linea ISDN.
Avere una linea ISDN è ovviamente molto più costoso, tuttavia ha il
vantaggio di avere due numeri telefonici del tutto indipendenti e di consentire
un minore impegno di linea (e quindi un minor consumo di scatti) se si usa
spesso il modem (di tipo ISDN) o il fax (però di tipo ISDN anch'esso).
Utilizzare una linea ISDN con un modem normale (o con un fax normale)
non porta ad alcun vantaggio complessivo.
Linee dedicate
Diverso è il discorso delle linee dedicate. Si tratta di collegamenti telefonici
permanenti, sempre attivi, che servono ad utilizzatori "intensi" come può essere il
computer centrale di una banca, collegato su linee dedicate a tutte le agenzie sul
territorio nazionale.
I dati devono risiedere nell’elaboratore centrale per poterne consentire l’accesso da
parte di qualunque agenzia si rechi il correntista per incassare un assegno. D’altra
parte è necessario che qualsiasi operazione effettuata in una filiale venga
immediatamente registrata nell’elaboratore centrale perché le altre filiali, richiedendo
la situazione del cliente per l’incasso di un altro assegno, possano avere quella reale
e non quella del giorno prima.
Se ciò non avvenisse con una comunicazione continua e grazie ad una linea dedicata,
un cliente potrebbe prelevare più denaro di quanto ne abbia sul conto, presentandosi
in filiali diverse in momenti di poco successivi o con complici in altre città.
Questo tipo di collegamento, con costi ingenti per la linea e per apparecchiature
modem dal prezzo elevato, è appannaggio quasi esclusivo di grandi aziende. Inoltre
si tratta del collegamento fra elaboratori di grandi o medie dimensioni, raramente di
74
personal computer.
Caratteristiche tecniche
I modem per linea commutata in commercio hanno caratteristiche comuni:
- comandi Hayes, così chiamati dalla ditta americana che li elaborati. Si tratta di un
linguaggio di comandi con il quale il computer dirige il funzionamento del modem;
- velocità massima secondo le nostre esigenze: 300, 1’200, 2’400, 4’800, 9’600,
12'200, 28'800, 36'600 baud (bit per secondo) ed oltre;
- protocolli: CCITT se si vuole comunicare esclusivamente con paesi europei, Bell se
anche con gli Stati Uniti;
- correzione d’errore: MNP4, che consente la ricezione dei dati esattamente come
sono stati trasmessi, eliminando ogni possibile bit modificato da interferenze (non è
presente nei modem più economici);
- compressione: MNP5, che invia i bit codificandoli in modo che lo scambio
effettivo di dati sia più veloce della velocità tecnica del collegamento (non è presente
nei modem più economici).
Le apparecchiature più recenti presentano, oltre ad un costo più contenuto rispetto ai
vecchi modelli, ed a dimensioni più piccole, alcune innovazioni tecnologiche:
- autoriconoscimento del protocollo: il modem è in grado di riconoscere il protocollo
usato dal modem corrispondente e di regolarsi da solo sullo stesso protocollo;
- capacità telefax: la tecnica di trasmissione dei telefax non è molto distante da quella
dei modem. Basta un piccolo circuito in più ed il modem è in grado di trasmettere e
ricevere telefax, collegandosi con le tradizionali apparecchiature telefax.
In coincidenza con il successo dei computer portatili, sono stati prodotti un buon
numero di modem portatili che alle caratteristiche tecniche più diffuse aggiungono:
- adattabilità, grazie alla presenta di tipi diversi di connettori telefonici, compresi i
telefoni pubblici, quelli utilizzati negli alberghi e gli apparecchi cellulari;
- autoalimentazione, che ne permette l’uso in situazioni particolari.
Indipendenti ed a schede
I modem sono apparecchiature standardizzate, utilizzabili da tutti i computer.
Cambiando personal è possibile conservare lo stesso modem. Addirittura il cambio
di ambiente, da quello DOS a quello Macintosh, permette di usare lo stesso modem
con la sola sostituzione del cavetto di collegamento a causa della diversità della porta
seriale.
Ciò è un grande risparmio, senza dubbio, ma il modem indipendente occupa spazio
sulla scrivania, va acceso e spento, ha bisogno di un alimentatore adattatore di
corrente a parte. Alcuni utenti trovano più conveniente utilizzare i modem cosiddetti
interni, i cui componenti sono stati assemblati su una scheda da inserire in uno slot
all’interno del computer.
Si ha il vantaggio di non dover accendere né spengere il modem, perché la scheda si
alimenta direttamente dal computer. Non c’è neanche bisogno del trasformatore
adattatore esterno.
L’altra faccia della medaglia è che, cambiando personal, non c’è la garanzia che la
75
scheda modem funzioni anche nel nuovo computer, rischiando di dover ripetere
l’acquisto.
Modem/telefax
I modem/telefax sono molto semplici nell’uso, soprattutto in fase di trasmissione.
Dopo aver elaborato il nostro documento su schermo come al solito, lo inviamo in
stampa al modem. In questo caso il modem/telefax finge, rispetto al computer, di
essere una stampante. Il testo, invece di essere stampato, viene trasformato in
frequenze sonore, simili a quelle utilizzate per la trasmissione dati ma usando
protocolli diversi. Inviato ad una apparecchiatura telefax attraverso la linea
telefonica, il fax risulta totalmente identico a quello che sarebbe arrivato se il
documento fosse stato stampato su carta e quindi trasmesso con un telefax normale.
La ricezione non è molto diversa, salvo che in questo caso il modem demodula le
frequenze sonore emesse dall’apparecchiatura telefax e le trasforma in un documento
grafico. Purtroppo non è ancora possibile la trasformazione del telefax in semplice
testo, non solo leggibile ma anche elaborabile. Il fax arrivato è invece una vera e
propria fotografia, occupando anche un rilevante spazio sul disco per la sua
registrazione.
La gran parte dei modem/telefax prevede solo la trasmissione dei fax e non la
ricezione.
La differenza di costo con un modem normale non è rilevante. Inoltre il
modem/telefax consente un grosso vantaggio rispetto alle apparecchiature telefax: la
trasmissione automatica.
Grazie al software di gestione del modem si può inviare un fax a destinatari multipli
e ad orari differiti. Questo consente un notevole risparmio sia di tempo che di costi.
Non è più necessario passare le ore all’apparecchiatura telefax per inviare alcune
diecine di fax, perché il modem/fax effettua l’operazione autonomamente. Se trova
un numero occupato od un fax staccato, continua a provare ad intervalli prestabiliti.
Alla fine notifica all’utente i fax inviati e quelli che non è stato possibile inoltrare.
Poiché le tariffe teleselettive sono inferiori durante la notte, è un grande vantaggio
lasciare che il modem/telefax effettui le sue operazioni dopo le ore 22. E’ sufficiente
mettere in lista di spedizione per quell’ora i diversi fax da trasmettere, ed il mattino
successivo troveremo sullo schermo la solita lista dei fax inoltrati e di quelli che non
è stato possibile spedire.
Considerazioni finali
Si utilizza il modem per collegare due computer che devono scambiarsi dati, come
fra la filiale di una ditta e la sede centrale per aggiornare il magazzino, gli ordini, la
contabilità.
Oppure ci si collega ad un elaboratore di grandi dimensioni, per ricevere ed utilizzare
dati in suo possesso. Fra gli esempi più diffusi di elaboratori cui si può accedere via
modem per ricavare informazioni:
- Cerved, centro calcolo delle Camere di Commercio: detiene tutti i dati sociali di
tutte le società ed aziende commerciali di capitali e di persone esistenti in Italia,
compresi i bilanci, e gli organi sociali. Ha inoltre l’elenco di tutti gli effetti bancari
od assegni andati in protesto in Italia, con nome del traente. Sono inoltre a
76
disposizione dati sul commercio con l’estero e sulle fiere internazionali;
- Poligrafico dello Stato: rende disponibili i testi originali delle Leggi dello stato e di
tutti i decreti pubblicati sulla Gazzetta Ufficiale;
- Seat, società editrice delle Pagine Gialle Telefoniche: con l’equivalente elettronico
delle Pagine Gialle,;
- Ansa: l’intero archivio storico di tutte le notizie trasmesse ai giornali.
Oltre all’attività di consultazione di archivi di informazioni residenti su computer
lontani, il modem serve anche per collegarsi attivamente a servizi telematici come:
- Postel, servizio di posta elettronica dell’Amministrazione Postale: consente l’invio
di lettere, circolari, fatture, effetti e telex direttamente dal computer, garantendo una
consegna a destinazione molto più celere del servizio ordinario delle poste. Il
servizio Postel, infatti, si basa su una ventina di elaboratori nelle maggiori città
italiane. Una lettera scritta su un computer a Milano, per un destinatario a Roma,
viene inviata all’elaboratore Postel di Milano che la inoltra al suo omologo di Roma,
il quale provvede a stamparla direttamente all’interno del centro postale di
smistamento. Nell’arco di 12/24 ore la lettera è consegnata. Con un sovrapprezzo è
possibile utilizzare il servizio Postacelere per una consegna entro 6 ore.
In campo internazionale è possibile accedere a banche dati di ogni genere, di
consultazione scientifica, finanziaria, industriale, medica, ma anche servizi di
assistenza e consulenza organizzati dalle case produttrici di computer o dalle
software house che in questo modo forniscono ai propri clienti informazioni sempre
complete ed aggiornate. Ci si può collegare alle agenzie stampa come Associated
Press o Roiter per i lanci di notizie in diretta, o per seguire particolari avvenimenti.
Esistono servizi telematici professionali, grazie ai quali una categoria di esperti può
scambiarsi notizie ed opinioni partecipando ad una continua conferenza a livello
mondiale. Indipendentemente dalla località nella quale abitano o lavorano, ingegneri,
medici, giornalisti, avvocati, ricercatori, ma anche presentatori di varietà, skipper,
piloti aeronautici o pompieri, possono collegarsi con il loro computer e partecipare
pubblicamente, oppure inviarsi messaggi personali.
Anche il tempo libero ha la sua quota di comunicazione elettronica. Numerosi servizi
telematici sono gratuiti, od a basso costo, e servono allo scambio di messaggi ed
esperienze hobbistiche o personali. Vi sono poi basi di dati con trame di film o di
telefilm e soap opera, classifiche musicali o letterarie, giochi di simulazione o
scacchi in corso fra partecipanti di vari continenti.
E’ possibile effettuare acquisti, via computer, presso le più grandi catene di grandi
magazzini statunitensi o presso piccoli artigiani delle Hawai. Ottenere una dieta
bilanciata o consigli sul controllo delle nascite, su come smettere di fumare o di bere
alcoolici.
Si possono comprare o vendere oggetti usati, biciclette, macchine fotografiche, e
qualsiasi altra cosa, fra privati. O trovare suggerimenti sull’allevamento di pesci da
acquario.
Non c’è limite alla quantità di informazioni alle quali si può accedere.
Collegamenti a grande distanza
Spesso gli elaboratori a cui è necessario collegarsi sono distanti parecchi chilometri e
una chiamata telefonica diretta farebbe arrivare bollette stratosferiche per i costi della
teleselezione. Per fortuna esiste un particolare servizio della SIP che consente il
77
collegamento di computer a costi ridotti: la rete Itapac.
Utilizzando Itapac, collegarsi con l’elaboratore Cerved, che si trova a Padova, non
richiede la teleselezione da Milano. Si può trasmettere i dati al centro Itapac di
Milano, che si mette in contatto su una linea speciale con il centro Itapac di Padova,
il quale ci consente il collegamento con il Cerved.
Questo passaggio è totalmente trasparente per il transito dei dati, una volta stabilito il
contatto. Anzi, poiché si utilizza la linea telefonica solo in piccola parte, e la linea
utilizzata da Itapac è dedicata alla sola trasmissione dati, il flusso dei bit subirà
minori interferenze di un collegamento telefonico diretto. Ciò fa risparmiare in modo
consistente non solo sull’ordinaria telefonata in teleselezione, ma anche
sull’installazione di una linea dedicata quando questa non sarebbe utilizzata in
continuazione.
78
Scheda di rete
La rapida crescita di Internet ha trasformato il PC in un'unità indispensabile per le
comunicazioni. La posta elettronica, i file condivisi, le applicazioni e i servizi di rete
sono da lungo tempo strumenti indispensabili per tutti gli utenti di PC a livello
aziendale, instituzionale, di pubblici esercizi e anche a uso domestico. Sempre più i
PC in rete devono potersi connettere l'uno con l'altro ed ecco entrare
prepotentemente in gioco la scheda di rete o Network Interface Card (NIC). Questo
componente, che rappresenta la connessione fisica alla rete, converte le informazioni
che transitano sulla rete in pacchetti di dati con dimensione standard. Tali pacchetti
vengono convertiti in segnali elettrici che vengono trasferiti sul cavo. All'estremità
ricevente, una scheda di rete riceve il segnale elettrico e quindi decodifica e
riassembla i singoli pacchetti che vengono successivamente inviati al computer. La
NIC controlla i pacchetti in ingresso per accertersi che tutti vengano ricevuti
correttamente, una funzione chiamata controllo errori. Le NIC si inseriscono negli
alloggiamenti delle schede di espansione e sono disponibili per slot dei bus ISA, PCI
e EISA. Sebbene in passato la maggior parte dei client utilizzasse NIC basate su ISA,
la larghezza di banda più elevata, una più veloce elaborazione (bus mastering e così
via) e la funzione Plug and Play del bus PCI hanno reso le NIC con bus sempre più
in espansione. Il potenziamento della velocità della rete trarrà sicuramente vantaggio
della veloce connessione al bus PCI. Società quali 3Com e altre commercializzano
svariati tipi di schede di rete. Quando la NIC è fisicamente installata sul PC è
necessario collegarla al cavo di rete. Se si utilizza una rete Ethernet sono disponibili
due connettori sul retro del PC. Il primo è un piccolo cilindro che assomiglia al
connettore d'antenna dei televisori; serve per un connettore coassiale BNC. L'altra
connessione, che assomiglia a un comune connettore telefonico, soltanto
leggermente più largo, serve per cablaggi con doppino telefonico. Si utilizzerà uno
solo di questi connettori in base al tipo di rete su cui dovremmo operare.
79
Il monitor
Il monitor è la principale periferica di output del computer. Tramite il monitor noi
possiamo lavorare con il sistema operativo e con i singoli programmi.
Possiamo vedere il contenuto delle unità di memoria di massa e modificarlo;
visualizziamo i documenti, li creiamo ed elaboriamo; seguiamo lo spostamento del
puntatore sui diversi oggetti sullo schermo (pulsanti, menu, finestre, parti del
documento) e possiamo agire ed impartire comandi od eseguire funzioni tramite i
pulsanti del mouse...
Il monitor è indispensabile persino in un computer con il quale non lavora mai
nessuno, come in un server di rete sempre acceso ed in funzione: sullo schermo
appaiono i dati sul traffico di rete e su tutti gli “avvenimenti” più importanti,
collegamenti e scollegamenti, errori di connessione, blocchi, che riguardano lo stato
del sistema.
La stessa parola “monitor”, in inglese, vuol dire “controllo”.
Esistono in commercio due tipi di monitor: CRT, ovvero con tubo a raggi catodici, e
LCD, ovvero a cristalli liquidi.
I monitor CRT vengono utilizzati da tutti i computer desktop. Hanno una affidabilità
e fedeltà imbattibile con altre tecnologie, ma occupano lo stesso spazio di un
televisore e, per motivi di visibilità, non è possibile ridurre le dimensioni dello
schermo, e quindi del tubo catodico.
Gli schermi LCD occupano pochi centimetri di spessore, sono quindi installati sui
computer portatili e sui notebook. Ma la tecnologia a cristalli liquidi ha raggiunto tali
livelli qualitativi da rendere disponibili monitor LCD anche per i computer desktop.
Il vantaggio è la notevole riduzione di spazio che occupano sulla scrivania, lo
svantaggio è il costo.
Monitor CRT
Il monitor installato su un personal ricevere i segnali video dall’adattatore grafico.
Logico quindi che ne condivida lo standard, altrimenti non ne potrebbe interpretare i
comandi.
E’ difficile trovare in commercio monitor adatti a vecchi standard grafici, precedenti
al VGA. Poiché gran parte dei computer commercializzati attualmente hanno schede
video SVGA, questo è lo standard più frequente anche nei monitor. Il monitor CRT
utilizza la stessa tecnologia dei televisori, basata su un raggio catodico e sulla
proprietà dei fosfori di immagazzinare radiazioni luminose e di restituirle
lentamente.
I fosfori formano delle righe di piccoli punti nella parte interna dello schermo.
Partendo dal tubo catodico, un raggio di elettroni colpisce i fosfori là dove
l’immagine deve essere più luminosa, passando su tutto schermo, riga a riga, e
riprendendo il tragitto dall’inizio prima che i fosfori abbiano esaurito la luminosità.
Noi, dalla parte esterna dello schermo, vediamo le emissioni luminose dei fosfori e le
immagini che formano. I fosfori sono di un solo colore nei monitor monocromatici,
spesso verdi, e di tre colori nei monitor a colori.
In questo caso i raggi di elettroni sono tre, uno per ogni colore di fosfori: rosso,
giallo e blu (per questo i monitor a colori sono chiamati RGB). Quando sono
“accesi” tutti e tre i fosfori adiacenti dei tre colori, si ottiene il bianco; quando sono
80
spenti si ottiene il nero; quando sono accesi con luminosità diverse si ottengono gli
altri colori. A seconda della capacità della scheda grafica di inviare segnali che
“dosano” la forza del raggio di elettroni, si possono visualizzare da 256 a 16,7
milioni di colori.
Più i fosfori sono piccoli e numerosi, meglio le immagini sullo schermo sono
definite. Ogni gruppo di tre fosfori forma il “pixel”, cioè il singolo punto luminoso
sullo schermo, ed è questa la misura della risoluzione del monitor. In un monitor con
risoluzione di 1024x768 pixel sono presenti sullo schermo 1024 gruppi di fosfori,
pixel, in larghezza e 768 pixel in altezza.
La frequenza rappresenta la velocità con la quale il tubo catodico disegna
l’immagine, il cosidetto “refresh”, cioé “rinnovo” dell’immagine sullo schermo. Una
frequenza inferiore a 75 MHz è sconsigliabile. Una frequenza di 85 MHz è quella
media, mentre i monitor di alta qualità superano i 100 MHz.
Se la frequenza è bassa, sullo schermo appare il “flickering”, cioè lo “sfarfallio”. In
pratica i fosfori perdono la luminosità prima che il tubo catodico rinnovi l’immagine
con un altro passaggio.
Monitor LCD
Gli schermi LCD ed a plasma sfruttano le caratteristiche di questi materiali di
polarizzarsi, cambiando colore, per gli effetti magnetici del passaggio di energia
elettrica a bassa intensità. Sostanze entrambe chiare, diventano scure, formando il
testo o il grafico da visualizzare. Le immagini originate sono spesso poco
contrastate, per cui è frequente il ricorso ad una illuminazione proveniente dal fondo
dello schermo per renderle maggiormente visibili.
Esistono sia schermi LCD che a plasma a colori, ma sono modelli alquanto costosi e
dai risultati mediocri. La pressoché totalità è monocromatica, con una strana
particolarità: le schermate che hanno fondo nero e caratteri chiari sui monitor CRT,
hanno fondo chiaro e caratteri scuri sugli schermi LCD e a plasma.
Gli schermi dei computer portatili, essendo integrati nella macchina, non presentano
problemi di abbinamento con la scheda video, anch’essa integrata nella scheda
madre. Nella maggior parte dei casi utilizzano lo standard VGA.
Alla corrispondenza fra standard della scheda video e standard del monitor fa
eccezione un particolare tipo, chiamato multisync, che è in grado di adattarsi alle
diverse schede video, comprese quelle che consentono una risoluzione speciale ed un
alto numero di colori visualizzabili.
Con un costo più alto rispetto ai monitor VGA, il multisync ha però una qualità
nell’immagine senz’altro superiore, anche a parità di standard. Essendo indipendente
dalla scheda video, un monitor multisync può consentire l’aggiornamento graduale
di un computer, passando dalla VGA alla SVGA ed infine ad una scheda grafica
speciale senza doverlo sostituire.
Le dimensioni di un monitor non sono calcolate misurando la base e l’altezza, bensì
la diagonale in pollici. Uno schermo da 14 pollici ha una diagonale, dall’angolo in
alto a sinistra all’angolo in basso a destra, di 14 pollici. Anche in questo i monitor
per computer hanno imitato i televisori.
I monitor CRT di tipo multisync utilizzano due diversi modi di visualizzazione
dell’immagine sullo schermo:
-
il modo interlacciato, nel quale l’immagine è composta da due immagini parziali
che si alternano ad alta velocità: il raggio di elettroni disegna prima una parte
81
dell’immagine e quindi l’altra. Questo tipo di visualizzazione è ideale per la resa
di immagini in movimento, quindi di rara utilità nelle normali applicazioni;
- il modo non interlacciato, nel quale l’immagine è effettivamente unica,
disegnata completamente volta per volta dal raggio di elettroni. Il cambio di
immagine sullo schermo è più lento, adatto a schermate fisse.
Considerazioni finali
Il monitor deve essere scelto in funzione di due fattori:
- lo standard grafico della scheda video;
- le nostre necessità “visive”.
La scelta secondo lo standard grafico è semplice. Se la scheda è EGA il video deve
essere EGA, se la scheda è VGA il monitor deve essere VGA. L’unica eccezione è la
scheda SVGA/UVGA, che permette la presenza di un monitor VGA al posto di uno
multisync. Naturalmente in questo caso il monitor non potrà sfruttare tutte le
funzionalità dello standard superiore.
Riguardo alle nostre necessità, occorre valutare:
- il formato dello schermo;
- la qualità dell’immagine;
- le radiazioni.
Va inoltre effettuata la scelta fra video monocromatico ed a colori. Scelta questa
ultima che non è tanto di ordine economico, in quanto i due diversi tipi di monitor
non hanno prezzi molto distanti, grazie all’elevata produzione in serie.
Quando la risoluzione dell’immagine nei vecchi monitor a colori era insufficiente,
veniva loro preferito il monitor monocromatico per tutte le applicazioni nella quali lo
sguardo doveva in continuazione leggere sullo schermo. Le lettere erano meglio
delineate e gli occhi si stancavano di meno.
La risoluzione degli attuali monitor a colori è superiore a quella dei vecchi
monocromatici, quindi non sembra esserci alcun motivo per privarsi del colore.
Tanto più se molti programmi fanno uso del colore per rendere più facile l’uso,
contrassegnando con colori diversi settori diversi dello schermo, o tipologie di
comandi.
Il formato e il tipo di visualizzazione sono direttamente collegabili esclusivamente al
tipo di lavoro che intendiamo svolgere. L’elaborazione di fotografie a colori richiede
uno schermo multisync non interlacciato da 21 pollici, la lavorazione di una rivista
può essere svolta con un monitor SVGA/UVGA da 15 o 16 pollici, mentre la
videoscrittura o il data entry si svolgono regolarmente con i monitor VGA da 13 o 14
pollici.
Nel caso che il computer serva per elaborazioni multimediali, è essenziale un
monitor multisync interlacciato.
Risoluzione a parte, la qualità dell’immagine è formata anche dal bilanciamento e
dalla saturazione dei colori. La costruzione interna di un monitor può essere molto
diversa da modello a modello, a seconda della qualità del tubo catodico e di tutti gli
altri elementi elettrici ed elettronici. Una immagine anche solo leggermente storta o
82
fuori fuoco può provocare consistenti danni alla vista. Se è fastidiosa in un televisore
mentre scorrono le immagini di un film, in uno schermo che abbiamo di fronte
almeno otto ore al giorno è insopportabile.
I controlli presenti sul monitor sono quelli della luminosità e del contrasto. Spesso è
possibile accedere ai comandi di ampiezza e centratura sia verticale che orizzontale
dello schermo sul retro. Nella gran parte dei monitor è anche presente un pulsante
per eliminare l’elettricità statica che si forma sulla superficie interna dello schermo e
che altera i colori.
Il piedistallo girevole è un accessorio utile, se non indispensabile. Permette di
orientale lo schermo all’altezza del nostro sguardo, senza costringerci a posizione
scomode, ed in direzione più favorevole rispetto ai riflessi dell’illuminazione
ambientale.
Una illuminazione errata o un cattivo posizionamento del computer rispetto alle fonti
di luce può causare gravi danni alla vista dell’utilizzatore e comunque un calo di
produttività.
Lo schermo del monitor è in vetro e, come tutti i vetri, anche se trattato e
pubblicizzato come antiriflesso, fa da specchio. Le luci, le finestre, le pareti vi si
riflettono e rendono confusa l’immagine sullo schermo. Gli occhi si sforzano di
distinguere i particolari e, oltre ad una stanchezza con dolore ai bulbi oculari e mal di
testa, può derivarne un calo dell’acutezza visiva.
In un ufficio dove l’utilizzo dei computer è continuo e generalizzato, l’illuminazione
dovrebbe essere diffusa ed omogenea, evitando fonti di luce dirette sulla scrivania e
preferendo luci che, dalle pareti, illuminano il soffitto. La luce pervade l’ambiente
diffusa dal soffitto.
Il monitor non deve essere rivolto verso una finestra, cui l’utilizzatore rivolge le
spalle, in quanto la sua luce si rifletterebbe sullo schermo. Né l’utilizzatore,
lavorando al computer, deve avere una finestra direttamente dietro il monitor, perché
si accentuerebbe troppo il contrasto fra le fronti luminose, finestra e monitor, e
l’occhio dovrebbe fare un continuo sforzo per calibrare l’apertura dell’iride.
In caso di problemi derivati da riflessi sullo schermo, è consigliabile installare uno
schermo aggiuntivo antiriflesso. I riflessi non si potranno mai eliminare del tutto, ma
un buono schermo aggiuntivo li può drasticamente ridurre.
83
Le radiazioni
Il problema delle razioni emesse dai tubi a raggi catodici è stato molto discusso ed
esaminato sotto tutti i punti di vista.
Mentre in molti paesi, Italia compresa, esistono normative che proibiscono
esplicitamente la permanenza davanti ad un video per molte ore consecutivamente, le
opinioni e gli studi presentati dai fabbricanti sono di tutt’altro avviso.
La tecnologia usata nei monitor è la stessa utilizzata per i televisori. Un sottile raggio
luminoso colpisce, con maggiore o minore intensità, una serie di particelle di fosfori
che, immagazzinando la luce, la restituiscono lentamente. Nei monitor a colori i
raggi sono tre e i fosfori sono di tre colori: giallo, blu e rosso.
I fosfori non rilasciano solo radiazioni luminose, ma anche altre radiazioni non
visibili. Secondo definitive prove di laboratorio è accertato che le radiazioni emesse
dai monitor CRT danneggiano le cellule umane.
E’ vero, replicano i produttori, ma la moderna tecnologia sta producendo monitor i
cui fosfori emettono una quantità di radiazioni così bassa, ed a così piccola intensità,
che bastano pochi centimetri d’aria a neutralizzarli. Queste radiazioni sono così
deboli che l’aria è per loro come un muro d’acciaio e, al confronto di un monitor, un
televisore a colori da 26 pollici è come una centrale nucleare rispetto ad un mulino a
vento.
I monitor emettono anche radiazioni magnetiche. Per guidare il raggio di elettroni
nel tubo catodico, in modo da fargli comporre l’immagine sullo schermo, vengono
usati dei potenti magneti. Anche la forza magnetica ha provato la propria dannosità
per le cellule umane, senza alcuna ombra di dubbio.
Intervengono di nuovo i produttori. I magneti sono sul retro del tubo catodico, dalla
parte opposta dell’utilizzatore del computer. La direzione delle loro forze
magnetiche è laterale. Ne consegue che le parti più pericolose di un monitor sono il
retro ed i due lati, non quella frontale.
Chi corre i pericoli maggiori sono i colleghi di lavoro, coloro che siedono con la
testa vicino alla parte retrostante o laterale del monitor, non chi lavora al computer.
Queste radiazioni sono diminuite nei nuovi modelli, ma sono ancora consistenti,
tanto da sconsigliare una posizione di lavoro vicina al retro di un computer.
Il rimedio per le radiazioni può essere un buono schermo protettivo, che non sia
semplicemente un vetro antiriflesso, ma che contenga particelle di piombo, e non
lavorare mai con il viso troppo vicino al video.
Alcuni monitor vengono certificati “a bassa emissione di radiazioni” da laboratori
privati, ma in realtà non esiste nessun organismo sanitario ufficiale che ne possa
effettuare una omologazione e che possa dichiararne l’innocuità. Non esistono
misure di radiazione considerate “soglie minime”, né leggi in materia, e d’altra parte
la letteratura medica al riguardo delle effettive conseguenze della esposizione a
monitor CRT è contraddittoria.
I monitor LCD ed a plasma sono totalmente esenti da radiazioni. Sono stati realizzati
monitor per personal desktop con queste tecnologie, tuttavia con scarsi risultati a
causa della cattiva risoluzione e della pessima leggibilità.
84
Schermi touch screen
Per talune applicazioni, come nei computer disponibili al pubblico per la
consultazione presso uffici pubblici od in occasione di fiere, è opportuno utilizzare
monitor sensibili al contatto, chiamati touch screen. Sullo schermo appaiono le
diverse possibilità di consultazione a disposizione, e l’utente tocca con un dito quella
che intende richiedere.
In realtà la superficie dello schermo non è assolutamente sensibile al tocco del dito,
anzi è di normalissimo vetro. Lo schermo è però attraversato da sottili raggi
infrarossi, simili a quelli del cancelli automatici. Piccole cellule, nascoste nel un
bordo interno della cornice del monitor, rilevano i raggi e la loro eventuale
interruzione a causa del dito poggiato sullo schermo. Il programma calcola la
posizione del dito grazie alle coordinate fornite dai raggi interrotti.
E’ stato tentato di introdurre questo tipo di schermo anche nel normale lavoro di
ufficio, ma il lavoro ne risulta eccessivamente rallentato.
Oltre a monitor prodotti appositamente, è possibile adattare uno schermo normale a
touch screen, aggiungendo un adattatore che si monta sulla cornice.
Data show
La lavagna luminosa è uno strumento molto utilizzato nell’esecuzione di corsi,
conferenze, congressi. Uno speciale schermo a tecnologia LCD viene collegato fra
scheda grafica e monitor e permette, posto sul ripiano della lavagna luminosa, di
proiettare le stesse immagini presenti sul monitor del computer.
Questo schermo, chiamato data show, è pressoché identico a quelli utilizzati nei
computer portatili, ma ha un fondo di vetro anziché di plastica. La luce della lavagna
luminosa lo attraversa come se fosse un ordinario lucido di plastica trasparente.
Con un data show è possibile produrre delle schermate con scritte e grafici che,
mostrate l’una dopo l’altra, vanno a sostituire sia i lucidi didattici che le diapositive
esplicative. I vantaggi nell’utilizzarlo al posto dei metodi tradizionali sono la
possibilità di effettuare modifiche alle schermate anche all’ultimo momento, di
modificarne la successione e di poter richiamare ciascuna schermata in qualsiasi
momento durante la proiezione anche più volte.
Videoregistratore
Tramite uno speciale modello di videoregistratore, collegabile alla porta seriale e
dotato di un microprocessore che possa scambiare comandi con il computer, è
possibile effettuare una registrazione su nastro. Si possono preparare serie di
schermate fisse, oppure in movimento. Il nastro può essere usato per una
dimostrazione a distanza o per includere spiegazioni su un prodotto
85
La tastiera
Lo scopo della tastiera è duplice. Da una parte serve per introdurre dati nel
computer, dall'altro per impartire i comandi per l'esecuzione delle elaborazioni.
La corrispondenza fra tastiera e schermo viene evidenziata dal cursore. Si tratta di un
segno di sottolineatura, di un blocchetto colorato o di una barretta verticale, che ci
indica la posizione nella quale appariranno i dati corrispondenti ai tasti che
premiamo. Ogni volta che premiamo il tasto di una lettera, questa appare sullo
schermo al posto del cursore, e questo si sposta sulla destra di una posizione.
Se stiamo lavorando con un programma di videoscrittura, il cursore sarà libro di
muoversi per tutto lo schermo, mentre se stiamo immettendo informazioni in una
base di dati il cursore potrà solo muoversi all'interno dei campi prestabiliti ed andare
da un campo all'altro.
Il cursore, oltre che in seguito alla scrittura di un carattere, si muove anche per la
pressione di uno dei tasti cursore. Questi si trovano sulla tastiera, come vedremo.
Caratteristiche tecniche
Tasti alfanumerici
La parte principale della tastiera è dedicata ai tasti alfanumerici come quelli della
macchina da scrivere, anche se ordinati in maniera diversa. Ciò consente di
introdurre qualsiasi tipo di dati: lettere, cifre, segni di punteggiatura, segni
matematici, caratteri come lettere accentate o parentesi.
Insieme ai tasti ordinari, sono presenti due tasti modificatori che, premuti insieme ad
altri tasti, assumono funzioni particolari.
Questi tasti sono contrassegnati come:
- Ctrl o Control
- Alt
Le diverse combinazioni di tasti, ed il loro eventuale significato, sono determinate
dal software che è in esecuzione in quel momento. Alcune funzioni sono abbastanza
frequenti, come quella Alt e lettera "X" che provoca l'uscita dal programma, e Ctrl e
lettera "C" per interrompere l'esecuzione di un comando.
Alcuni tasti di lettere, se premuti insieme al tasto Alt, producono segni grafici
particolari. In ogni caso, il tasto modificatore e la lettera abbinata vanno premuti
contemporaneamente.
La particolare combinazione di tasti
Ctrl Alt Del
premuti contemporaneamente, provoca il riavvio del computer, con la stessa
conseguenza di spengerlo e riaccenderlo. Qualunque programma o lavoro sia in quel
momento in esecuzione o presente in memoria, viene cancellato.
Nella parte alfanumerica della tastiera troviamo anche:
-
Backspace, per cancellare il carattere che si trova alla sinistra del cursore;
- Return, per terminare il paragrafo in scrittura e mandare il cursore all'inizio
della riga nuova. Nei programmi di gestione delle basi di dati questo tasto
86
conclude l'elaborazione della schermata;
- Tab, che sposta il cursore di un tabulatore. Nei programmi di gestione delle basi
di dati questo tasto fa passare il cursore al campo successivo;
- Shift, se premuto insieme ad un tasto alfanumerico, provoca la scrittura della
lettera maiuscola, del numero e del carattere speciale rappresentato nella parte
superiore del tasto;
- Caps Lock, rende fissa la, funzione di Shift, finché non viene nuovamente
premuto.
Tastierino numerico
La parte destra della tastiera è invece dedicata ai tasti numerici, in similitudine delle
calcolatrici da tavolo. I tasti numerici sono raggruppati per consentire l'introduzione
rapida delle cifre. Accanto si trovano i tasti degli operatori di divisione,
moltiplicazione, sommatoria, sottrazione ed uguale. Sia i tasti numerici che quelli
degli operatori sono ripetuti, in quanto si trovano sia nel tastierino che nell'insieme
dei tasti ordinari.
Spesso il tastierino numerico ha un doppio uso. Il tasto in alto a sinistra,
contrassegnato "Num Lock" fa alternare le due funzioni.
Se "Num Lock" è attivo, e ciò è segnalato da una spia luminosa che si accende, il
tastierino ha la sua funzione numerica.
Se "Num Lock" è sbloccato, e la spia spenta, i tasti assumono funzioni speciali
come:
- PgUp, che torna indietro nella visualizzazione di una schermata;
- PgDown, che avanza nella visualizzazione di una schermata;
- Home, che pone il cursore all'angolo in alto a sinistra dello schermo;
- End, che pone il cursore all'angolo in basso a destra dello schermo;
- Ins, per inserire uno spazio vuoto fra due caratteri nei programmi di videoscrittura;
- Del, per cancellare il carattere su cui si trova il cursore nei programmi di
videoscrittura;
- quattro tasti cursore, contrassegnati da una freccia. Premendoli, il cursore si sposta
sullo schermo di una posizione con la direzione corrispondente alla freccia.
Fra la tastiera alfanumerica ed il tastierino numerico, si trovano altri tasti speciali:
- PgUp;
- PgDown;
- Home;
- End;
- quattro tasti cursore;
duplicati rispetto a quelli presenti in seconda funzione sul tastierino numerico.
Tasti funzione
Nella parte superiore della tastiera troviamo:
- Esc, che permette di rinunciare ad un comando impartito;
- 12 tasti funzione, contrassegnati da "F1" a "F12". Questi tasti assumono diversi
87
significati a seconda del programma che è in esecuzione;
- PrtSc, che invia alla stampante una copia dell'immagine attuale dello schermo;
- Scroll Lock, per bloccare lo scorrimento di informazioni sullo schermo;
- Pause, interrompere l'esecuzione di un comando.
I tasti funzione sono molto importanti, perché spesso riassumono intere sequenze di
tasti, permettendoci di lavorare con maggiore velocità e speditezza. Spesso il
programma in esecuzione visualizza nella parte bassa dello schermo i significati dei
vari tasti abilitati.
In alcune tastiere di vecchio tipo, chiamate tastiere "standard", ma che in realtà non
sono più prodotte, i tasti funzione sono situati in due colonne sulla sinistra della
tastiera. Questo tipo di tastiere avevano solamente 83 tasti, mentre le tastiere
attualmente in commercio, chiamate tastiere "estese" hanno 101 tasti.
Considerazioni finali
La nazionalizzazione
La maggior parte delle tastiere vengono prodotte per il mercato americano, ma non
esistendo in inglese le lettere accentate, non vi sono tasti per produrle sullo schermo.
A parte la lingua inglese, tutti i linguaggi esistenti utilizzano lettere accentate e
caratteri speciali, ed ogni alfabeto ne possiede di diverse.
Le lingue nordiche, ad esempio, hanno una lettera "O" sbarrata ed una lettera
formata da "A" ed "E" unite. Gli spagnoli hanno il punto interrogativo e quello
esclamativo capovolti, oltre alla "n" con la cediglia. Le lingue slave usano una "I" ed
una "L" sbarrate. Esistono poi lettere maiuscole sovrastate da accenti, due punti od
un pallino, e così anche molte vocali minuscole.
L'elenco può essere molto lungo, e per ogni lingua deve esistere una tastiera
particolare che ne rappresenti, sui tasti, i segni speciali. Solo così i computer possono
essere utilizzati in tutto il mondo.
Considerando i paesi occidentali ed europei, sono state prodotte venti tipi di tastiere
con impostazioni diverse. Per non parlare delle tastiere per i paesi arabi od orientali,
nei quali l'alfabeto è totalmente diverso.
La nazionalizzazione è un aspetto molto importante, perché avere un computer con
una tastiera non italiana vuol dire non poter scrivere correttamente molte parole.
Tutte le lettere accentate dovranno essere digitate senza, facendole seguire da un
accento. Se talune volte ciò è tollerabile, nella gran parte dei casi non lo è. Tanto più
se un computer con la tastiera italiana ha un costo uguale ad un altro con la tastiera
americana.
La nazionalizzazione della tastiera deve essere comunque indicata con un apposito
comando al sistema operativo, altrimenti nessun programma la potrebbe utilizzare ed
i caratteri che appaiono sullo schermo sarebbero differenti da quelli che
88
contrassegnano i tasti.
Qualità della tastiera
Lavorando molte ore di seguito ad un computer, digitando in continuazione, è facile
sentire le dita indolenzite o l'articolazione del polso. Sono due situazioni patologiche
derivate dall'uso di una tastiera inadatta nella pressione sui tasti, la seconda
nell'inclinazione della tastiera.
Non è possibile definire uno standard oggettivo per giudicare una "buona" tastiera e
il criterio di scelta è una prova almeno di qualche minuto di digitazione.
I tasti non devo essere né troppo duri da premere, né troppo cedevoli. Nel primo caso
si ha un affaticamento eccessivo a causa dello sforzo dei muscoli delle dita, nel
secondo l'arrivo troppo violento a fine corsa dei tasti provoca una serie di
microtraumi che si ripercuotono sui legamenti.
La posizione ideale per scrivere vede i polsi appoggiati sul davanti della tastiera e le
dita che si protendono sui tasti. Se la tastiera è troppo o troppo poco inclinata, il
polso dovrà muoversi troppo e le dita troveranno difficoltà a raggiungere i tasti.
Poiché la giusta inclinazione è determinata dalla lunghezza delle dita, la tastiera da
acquistare deve avere assolutamente l'inclinazione regolabile di modo che si possa
adattare alle nostre mani.
Una tastiera troppo bassa costringe i polsi ad alzarsi dal ripiano. La battitura con le
mani che si muovono sulla tastiera, senza appoggiarsi al tavolo, provoca un
indolenzimento sia della mano che dei muscoli del braccio.
Il problema è rappresentato dal fatto che ogni computer viene venduto con la sua
tastiera, senza possibilità di sostituzione gratuita.
Dovendo lavorare molto al computer, la tastiera ha una grossa importanza. Fra due
personal simili, a parità di costo e di prestazioni, la "piacevolezza" del tocco della
tastiera è senz'altro un motivo valido di selezione, molto più dell'aspetto estetico.
89
Il mouse
Il mouse è uno strumento essenziale di lavoro con il personal computer. Il suo uso è
stato introdotto solamente negli ultimi anni, con l’avvento dei sistemi operativi di
tipo grafico nei quali i comandi, che prima venivano impartiti al computer tramite la
digitazione sulla tastiera, possono essere inviati tramite il movimento del mouse e la
pressione di un suo tasto.
Nei personal venduti fino a qualche anno fa, infatti, il mouse non era compreso nella
configurazione base e doveva essere acquistato separatamente. Inoltre solamente una
piccola parte del software allora disponibile ne prevedeva l’uso. La gran parte dei
programmi che funzionavano sotto il sistema operativo DOS riconoscevano
solamente i comandi pervenuti dalla tastiera ed ignoravano i comandi del mouse.
Ancor oggi, se mandiamo in esecuzione un programma DOS, anche se all’interno di
un sistema operativo grafico, il mouse potrebbe non essere riconosciuto o comunque
ha un uso molto limitato.
Il mouse rientra nella configurazione base dei personal venduti attualmente. Qualora
si tratti di personal portatili, viene sostituito da una track ball o da una touch pad.
Il mouse ha nella parte superiore due pulsanti: il pulsante sinistro e quello destro.
Alcuni modelli hanno tre pulsanti, nel qual caso il mouse viene fornito con un
programma (installato nel “pannello di controllo” del sistema operativo) che
consente di attribuire al pulsante centrale particolari operazioni o insiemi di comandi.
Il mouse utilizzato dai computer Apple Macintosh ha, invece, un solo pulsante.
Nella parte inferiore del mouse è presente un foro dal quale sporge lievemente una
sfera di plastica che trasmette al computer gli spostamenti effettuati trascinando il
mouse sulla nostra scrivania (preferibilmente utilizzando un apposito “tappetino per
mouse” che ne migliora l’attrito e ne conserva la pulizia).
Spostando il mouse, si sposta sullo schermo una freccia, chiamata “puntatore”.
Tramite la combinazione dei movimenti del puntatore (e quindi del mouse) e delle
pressioni sui pulsanti sinistro e destro, è possibile trasmettere al sistema operativo
qualsiasi comando, come l’eliminazione, la copia o lo spostamento di un file.
Il mouse è essenziale per lavorare con le ultime versioni di tutti i programmi. Anche
se in molti di questi è stata conservata la possibilità di impartire i comandi dalla
tastiera, l’uso del mouse consente comunque una maggiore facilità e velocità di
lavoro.
Chi era abituato ad usare le combinazioni di tasti può continuare ad usarli, tuttavia in
certe parti delle nuove versioni, soprattutto quelle che riguardano l’aspetto grafico
(spostamenti, dimensionamenti, colori...) il mouse è indispensabile.
Le operazioni svolte con il mouse sono di quattro tipi:
• spostamento: si sposta il puntatore da una zona all’altra dello schermo (il mouse
deve “strisciare” sul tavolo, senza sollevarsi; qualora si incontri un ostacolo, si può
sollevare il mouse, portarlo in una zona del tavolo non ingombra e riprendere lo
spostamento del puntatore) senza premere alcun pulsante. Se ci si sposta in una zona
“attiva” dello schermo, il puntatore cambia forma (da freccia a croce, a doppia
freccia, a mano, a dito...) per indicare la possibilità di effettuare un’operazione
tramite il trascinamento o il click;
• trascinamento: si sposta il puntatore da una zona all’altra dello schermo tenendo
premuto uno dei pulsanti. Il trascinamento termina quando rilasciamo il pulsante
premuto, anche se continua lo spostamento del puntatore. Se iniziamo questa
90
operazione su un “oggetto”, come l’icona di un file, trasciniamo con il puntatore
anche quell’oggetto, andandolo a depositare lì dove terminiamo il trascinamento;
• click: tenendo fermo il mouse, premiamo e subito rilasciamo uno dei pulsanti del
mouse. Clickare con il tasto sinistro o con quello destro su un oggetto (ad esempio
l’icona di un file) ha un diverso significato: con il tasto sinistro si effettua la
selezione di quell’oggetto (cioè, su di esso si applicherà il prossimo comando),
clickando con il destro (con i programmi che ne accettano l’uso) oltre a selezionare
l’oggetto si provoca la comparsa sullo schermo di un menu con i comandi applicabili
in quel momento a quell’oggetto.
Quando è necessario selezionare un comando da un menu, attivare un’opzione o
azionare un “pulsante” sullo schermo, è necessario clickare con il pulsante sinistro.
Più avanti in questo libro, parlando dei sistemi operativi o del software, indicheremo
“click” (per l’uso del tasto sinistro) e “click/destro” a seconda dell’operazione da
svolgere.
L’effetto del click singolo può essere modificato se si preme, contemporaneamente,
uno dei “tasti modificatori” della tastiera, come “ctrl” o “alt”: in questo caso
indicheremo “click+ctrl”;
• doppio click: tenendo fermo il mouse, premiamo due volte, in rapida successione, il
pulsante sinistro del mouse. E’ necessario che il mouse non si sposti fra il primo e il
secondo click e che i due click siano molto rapidi, altrimenti il computer li
interpreterà come due click singoli.
L’utente inesperto, di solito, si trova a disagio lavorando con il mouse nei primi
giorni di “contatto” con il personal.
Gli errori più comuni sono quelli di spostare invece di trascinare, o viceversa, di fare
doppio click troppo lentamente, oppure di fare doppio click con un impeto tale da
spostare il mouse fra il primo ed il secondo click.
La difficoltà principale, comunque, è quella di “prendere la mira”. Spesso è
necessario clickare su oggetti molto piccoli, come linee o bordi, o caratteri di testo
minuscoli.
Non appena “fatta la mano” all’uso del mouse, si lavora comunque con maggiore
facilità e con fasi d’apprendimento ridotte.
Mouse senza filo
Grazie ai raggi infrarossi, simili a quelli utilizzati dai telecomandi televisivi, può
trasmettere al computer gli impulsi di movimento senza essere collegato con un
cavo.
Sembrerebbe una soluzione molto pratica, ma ha gli stessi inconvenienti dei
telecomandi: è soggetto all’esaurimento delle batterie che usa per alimentarsi, ed ha
un raggio di azione delimitato. Mentre i mouse normali vengono alimentati
attraverso lo stesso cavo in cui passano gli impulsi di movimento, quelli ad infrarossi
usano batterie interne. La parte antistante del mouse ha le cellule infrarosse e queste
devono sempre essere puntate verso i sensori collocati sul frontale del computer (se il
mouse ad infrarossi è di serie) o sull’apposito ricevitore. Basta spostare il mouse
fuori dell’arco d’azione dei sensori o frapporre un oggetto, un libro, una penna, fra
questo ed i sensori che la sua azione si interrompe.
Se stiamo effettuando un trascinamento e, durante lo spostamento del mouse, un
ostacolo si frappone ai raggi infrarossi è come se avessimo rilasciato il pulsante del
mouse.
91
La track ball
Una alternativa al mouse è costituita dalla track ball. Si tratta di un dispositivo che
utilizza lo stesso meccanismo del mouse, ma alla rovescia. Una sfera di plastica
fuoriesce da un contenitore: muovendo questa sfera, si impartisce il movimento al
puntatore sullo schermo. Il vantaggio è che la track ball resta ferma sul tavolo,
mentre il mouse richiede sempre un certo spazio sulla scrivania per poterlo muovere.
Le track ball sono state adottate nell’uso con i computer portatili. Un lato negativo
del mouse, proprio per questa sua richiesta di spazio su cui spostarsi, è
l’impossibilità di utilizzo in situazioni precarie, come nell’ufficio di un cliente, in
auto, in treno, in una sala d’aspetto aeroportuale. Dalle dimensioni molto più
contenute rispetto alla versione da tavolo, è incorporata direttamente nel computer
portatile, al di sopra o al di sotto della tastiera, perfettamente utilizzabile anche negli
ambienti e nelle situazioni più disagevoli.
Presenta due tasti che hanno le stesse funzioni dei pulsanti del mouse.
La touch pad
I nuovi modelli di computer portatili, invece della track ball, hanno una touch pad
per svolgere le funzioni del mouse. Si tratta di una piccola superficie rettangolare
sensibile alla pressione. Spostando il dito su questa superficie, dei sensori raccolgono
i cambiamenti di pressione e li trasmettono al computer, facendo spostare il
puntatore sullo schermo.
Anche in questo caso sono presenti due tasti che hanno le stesse funzioni dei pulsanti
del mouse.
E’ leggermente più difficile da usare rispetto alla track ball, almeno fino a quando
non se ne prende l’abitudine. Ha però un aspetto positivo: non raccoglie tutto quello
sporco che, entrando con la rotazione della pallina, va a finire sui sensori o nel
meccanismo di track ball e mouse provocando disturbi di funzionamento.
La tavoletta grafica
Il mouse non è lo strumento ideale per disegnare. Molto più precisa ed efficace è la
tavoletta grafica. Sulla sua superficie, sensibile alla pressione, si può disegnare con
un apposito stilo. Il disegno può essere a mano libera oppure, utilizzando il
tracciamento automatico di linee rette o curve, tecnico.
Sulla tavoletta, intorno allo spazio destinato al disegno, sono spesso disponibili una
vasta gamma di comandi di elaborazione del disegno stesso, come opzioni per il
colore, l’ingrandimento ed altri effetti grafici che vengano resi disponibili dal
programma. Le tavolette grafiche possono essere usate esclusivamente con i
programmi che le prevedono, in genere software di disegno industriale o di
architettura.
Il joystick
E’ utilizzato esclusivamente per i giochi, assumendo ad esempio la funzione di guida
di un aereo o di un carrarmato. Non ha alcuna applicazione di lavoro e nei giochi
stessi ormai è spesso sostituito dal mouse. Esistono anche delle pad speciali, dedicate
ai giochi, a somiglianza di quelle proprie delle console specializzate di videogiochi.
Nei computer Apple Macintosh non è possibile collegare un joystick
92
Le stampanti
Nonostante si dica che, con l’uso del computer, l’ufficio del futuro sarà un ufficio
senza carta, la stampante è il complemento ideale ed essenziale di ogni computer.
Nel tempo ha avuto numerosi e notevoli cambiamenti tecnologici, che ne hanno
agevolato la diffusione e l’uso. Dopotutto è ancora più facile stampare su carta una
lettera che registrarla su un CD-ROM, ed è più rapido trovarla in una cartellina di un
raccoglitore che in un archivio digitalizzato. Ed è ancora più economico.
Le stampanti di alcuni anni fa erano ingombranti, rumorosissime e lente. Ne
esistevano solo due tipi: a caratteri (con una testina identica a quelle delle macchine
da scrivere elettroniche) o a matrice di punti. Con le prime, molto più costose, si
potevano produrre lettere e documenti di buona qualità (identiche a quelle prodotte
da una macchina da scrivere, appunto), mentre le seconde servivano a produrre
tabulati su moduli a carta continua, spesso dalla lettura abbastanza difficile.
Evoluzione delle stampanti
La prima evoluzione si ebbe con l’introduzione di stampanti a matrice di punti capaci
di stampare con la stessa qualità delle stampanti a testina rotante.
Le stampanti a matrice di punti utilizzano una testina ad aghi. Ogni carattere che
deve essere scritto sul foglio, viene riprodotto da un insieme di punti. Dalla testina
fuoriescono, ad alta velocità, alcuni aghi che, battendo sulla carta attraverso il nastro
inchiostrato, vi lasciano impressa la matrice di punti che forma il carattere.
Le prime stampanti di questo tipo avevano una testina con nove aghi messi in
colonna e la matrice veniva composta da quattro colonne. Ciascun carattere poteva
essere disegnato, quindi un massimo di 36 punti, con una scarsa leggibilità
soprattutto di lettere più complesse, come la “g” minuscola. Con l’introduzione di
testine a 24 aghi, la qualità di stampa crebbe fino ad arrivare alla stessa qualità delle
macchine da scrivere.
La seconda evoluzione, ancora più importante, avvenne quando vennero introdotte le
stampanti laser. Questo tipo di stampante, che ereditava il meccanismo di stampa da
quello delle fotocopiatici, ha reso possibile produrre alla qualità della stampa
tipografica ed ha risolto il problema di stampare piccole quantità di circolari, depliant
e notiziari.
Dopo alcuni tentativi con tecnologie diverse, come le stampanti a sublimazione e
quelle a cera, si è arrivati alla terza evoluzione con le stampanti a getto d’inchiostro.
Queste hanno unito l’economicità alla qualità. Utilizzando un inchiostro liquido che
viene “sparato” in piccolissime gocce sul foglio di carta, riescono a raggiungere la
qualità delle stampanti laser con dimensioni e costi molto inferiore. Hanno anche
consentito di produrre stampe a colori, negli ultimi modelli, di qualità paragonabile
alle tradizionali stampe fotografiche.
Caratteristiche tecniche
Sono molte le caratteristiche tecniche che differenziano le stampanti, anche
all’interno dello stesso metodo di stampa, e che vanno analizzate per identificare la
stampante più adatta ai nostri bisogni:

alimentazione della carta: a foglio singolo od a modulo continuo. La stampa
a foglio singolo permette di cambiare rapidamente tipo di carta, di stampare a
volte anche su cartoncino e buste, carta intestata e prestampata, lucidi per
proiezioni. La stampa a modulo continuo (presente quasi solamente sulle
93
stampanti a matrice di punti) è più indicata, invece, per la produzione di
copie supplementari, stampate contemporaneamente grazie a moduli
sovrapposti di carta chimica;

formato della carta: può essere indicata nel numero di colonne stampabili
(80 o 132), in centimetri (da un minimo di 21 cm di larghezza in su), o in
formati standard (formato A3, A4, A5, B5...). Alcune stampanti possono
produrre striscioni, manifesti o grossi fogli per il disegno tecnico;

velocità di stampa: viene calcolata in caratteri per secondo (sigla: cps)
oppure in pagine per minuto (sigla: ppm). Può variare, nella stessa stampante,
a seconda del formato della carta o della risoluzione scelta;

risoluzione: tranne le stampanti a margherita, tutte le altre formano i caratteri
e le immagini sulla carta imprimendovi dei punti. Maggiore è il numero dei
punti e maggiore la loro vicinanza, più leggibile è lo stampato. La risoluzione
viene espressa nella quantità di punti per pollice, espressa anche dalla sigla
dpi, dot per inch. Nella stessa stampante è possibile spesso scegliere di
stampare a risoluzioni diverse;

affidabilità: è il tempo medio prevedibile fra due guasti, secondo le
dichiarazioni del produttore (sigla: MTBF);

durata della testina: espressa dalla quantità di pagine (o di caratteri)
stampabili prima di dover sostituire la testina. Nei modelli più recenti il
produttore dichiara la testina come permanente, poiché la sua vita quivale o
supera quella della stessa stampante. Nelle stampanti laser non esiste testina,
nel qual caso di tratta della quantità di copie dopo le quali è necessario
sostituire il tamburo di stampa (in molte stampa laser, comunque, il tamburo
è compreso nella stessa cartuccia che contiene il toner e quindi, cambiando il
toner si cambia anche il tamburo);

durata del nastro o della cartuccia: esprime la quantità di caratteri o di
pagine che è possibile stampare prima di dover cambiara il nastro, la
cartuccia di inchiostro o il toner;

interfaccia: determina la possibilità di collegamento (in rete o ad un singolo
personal, PC o Macintosh);

emulazione e driver: riguarda la compatibilità con i diversi sistemi operativi
e le diverse versione degli stessi. Il driver, ad esempio, può permettere anche
prestazioni avanzate, come la stampa in negativo, la stampa rovesciata, la
stampa ridotta o ingrandita, la riproduzione dei grigi fotografici, la stampa in
grigio di un documento a colori, la stampa di un solo colore per volta
(separazione dei colori);

memoria di buffer: maggiore è la RAM presente nella stampante (a volte
espandibile tramite SIMM) e maggiore è la quantità di dati che la stampante
può ricevere ed immagazzinare nel buffer in attesa di stamparli. Non
influenza la velocità di stampa (che è un fattore puramente meccanico)
quanto la velocità con la quale la stampante “libera” il computer dalle
istruzioni di stampa. Il personal può inviare una, due o più pagine alla
stampante e quindi tornare ad essere disponibile per l’utente, mentre la
stampante provvede indipendentemente alla stampa;
94

condizioni di funzionamento: oltre ai limiti di temperatura ed umidità nei
quali funziona la stampante, è importante il livello sonoro di funzionamento.
In pratica è la rumorosità (espressa in decibel) della stampante, elemento
molto importante quando la stampante deve funzionare in un ambiente chiuso
e ristretto, come nella maggior parte dei casi. La rumorosità è molto
importante nelle stampanti a matrice di punti, contenuta nelle laser e quasi
irrilevante in quelle a getto d’inchiostro;

certificazioni: riguarda la conformità dell’apparecchiatura alle norme sulla
sicurezza elettrica, all’ergonomicità, al risparmio energetico e al rispetto
dell’ambiente;

colori: la maggior parte delle stampanti ha un solo colore, il nero. Alcuni tipi
di stampanti (getto d’inchiostro, cera, sublimazione) hanno la possibilità di
stampare copie a colori con un’ottima qualità. In genere si distinguono
stampanti RGB a tre colori (qualità inferiore, con una resa approssimativa dei
colori), CMYK a quattro colori (con resa buona o ottima, paragonabile alla
stampa tipografica) od a sei colori (con una resa di tipo fotografico). Qualore
sia importante la fedeltà ai colori (ad esempio per bozzetti di fotografie o di
grafici da pubblicare tipograficamente) è necessario che la stampante abbia
un sistema di calibrazione del colore;

font: riguarda la capacità di stampare con caratteri diversi. E’ importante che
la stampante possa riprodurre (eventualmente con un dispositivo opzionale),
oltre ai caratteri eventualmente installati in ROM, qualsiasi altro carattere
installato dal computer, ad esempio i codici a barre.
Stampanti a matrice di punti
Sono il primo tipo di stampanti, prodotte da molti anni ma tutt’ora le preferibili
quando si tratta di stampare un grande numero di dati nel più breve tempo possibile,
con un costo che sia il più basso possibile. Sono anche chiamate “stampanti ad
impatto”.
La stampa è simile a quella della macchina da scrivere elettroniche, ma invece di
avere una testina con una serie di caratteri metallici od in plastica, utilizza una serie
di aghi in acciaio. Questi colpiscono la carta attraverso un nastro inchiostrato e
lasciano l’impronta del carattere, una “matrice di punti”.
La testina è formata da una linea verticale di aghi. Via via che la testina si muove
lungo la riga, un impulso elettrico proietta fuori le punte degli aghi, che subito
rientrano. Ogni punta imprime un segno sulla carta e l’insieme di questi punti forma
una lettera.
Il carattere formato sulla carta non è regolare e ben delineato, ed anche ad occhio
nudo rivela la composizione in punti. La risoluzione del carattere migliora con
l’aumentare del numero dei punti. Le stampanti normali hanno una testina con una
fila di 9 aghi, mentre in quelle con prestazioni migliori gli aghi della testina sono 24.
La qualità di stampa più modesta viene chiamata “draft”, mentre le testine con 24
aghi consentono anche qualità “NLQ” (Near Letter Quality) e “LQ” (Letter Quality).
Una caratteristica negativa è il rumore. Il continuo battito delle punte d’acciaio può
produrre un rumore fastidiosissimo. E’ importante accertarsi che il produttore abbia
utilizzato materiali e tecnologie recenti nella costruzione della stampante e
controllare il livello di rumorosità dichiarato, espresso in decibel (dB).
Queste stampanti accettano sempre la carta a modulo continuo, mentre per i fogli
singoli occorre un apposito cassetto o inseritore.
95
Il meccanismo di alimentazione della carta può essere a trascinamento, a spinta o
entrambi. L’alimentazione a spinta è preferibile, perché consente di stampare anche
nelle prime righe del foglio.
Di solito, con i moduli continui, il meccanismo usa i “trattori”, cioè una cinghia con
dei rilievi che si inseriscono nella bande perforate ai lati dei fogli. Per i fogli singoli,
invece, si usa il trascinamento “a frizione”, cioè prendendo il foglio fra due rulli che
ruotano.
Il percorso che la carta compie all’interno della stampante è, a volte, molto
complesso. E’ necessario che questo percorso possa essere semplificato se la
stampante deve essere utilizzata anche per la stampa di etichette adesive a modulo
continuo che, se costrette a compiere angoli troppo stretti, si sollevano dal supporto e
si incollano ai rulli della stampante.
Esistono stampanti sia a 80 che a 132 colonne. Consente la produzione di copie
carbone od in carta chimica autocopiante.
La velocità di stampa di queste apparecchiature è la più maggiore fra tutti i tipi di
stampanti, da meno di 100 (in qualità LQ) a più di 1000 caratteri al secondo (in
qualita draft).
Una caratteristica delle stampanti a matrice di punti è di avere un pannello di
comando frontale con alcuni pulsanti che consentono di scegliere la font, la qualità e
la densità di stampa, l’avanzamento o l’arretramento del foglio nella stampante riga
per riga (per consentire l’esatta centratura nei moduli prestampati), l’emissione di un
foglio in bianco (“form feed”), per posizionare l’inizio del foglio sulla prima riga di
stampa (“top of form”) ed un pulsante (“on line”) per scollegare momentaneamente
la stampante dal computer per effettuare interventi di manutenzione (cambio del
nastro, inceppamento della carta...).
Esistono stampanti a colori, ma il risultato è esteticamente scarso.
Stampanti a caratteri
Con l’uso delle margherite di caratteri o con le testine rotanti, queste stampanti
ottengono un risultato esattamente uguale a quello di un foglio battuto a macchina. Si
tratta però di macchine ingombranti, rumorose anche più di quelle a matrici di punti,
molto più costose e lente.
Ormai sono poco diffuse, e quasi totalmente assenti dal mercato dei personal.
Sono sempre munite di cassetti per l’alimentazione di fogli singoli, sia a 80 che a
132 colonne. Hanno anche cassetti speciali per le buste. Spesso i cassetti sono due,
abbinati, e la stampante può iniziare la stampa con un foglio dal primo cassetto e
proseguire con i fogli dell’altro cassetto. Utile per l’utilizzo di carta intestata diversa
per il primo foglio.
Non stampa a colori. Consente la produzione di copie carbone od in carta
autocopiante.
Altro aspetto negativo è la presenza della testina di stampa con i caratteri già formati.
Ciò non consente la stampa dei caratteri grafici e speciali presenti sulla tastiera, né
quella di immagini, grafici o disegni. Inoltre la margherita deve essere
nazionalizzata, perché possa stampare i corretti caratteri speciali.
Stampanti termiche
Sono state le prime concorrenti economiche delle stampanti a matrice di punti. La
testina è formata da alcune punte che non battono sulla carta, ma che la bruciano,
utilizzando carta speciale, che cambia colore anche a temperature moderate. Queste
stampanti non fanno alcun rumore.
L’uso di carta speciale è una seria controindicazione, essendo non solo costosa, ma
di facile deterioramento, lasciando lentamente sbiadire l’immagine. La risoluzione è
96
ancora bassa.
Sono molto lente: fra 17 e 24 caratteri al secondo.
Accettano solo il formato A4, in carta speciale a rullo. Non è possibile la stampa a
colori.
Anche questo tipo di stampante non viene più prodotta ed è raro trovarne in uso.
Stampanti a getto di inchiostro (ink-jet)
Si tratta di un tipo che ha recentemente avuto notevoli miglioramenti, con una
riduzione sensibile delle dimensioni, del prezzo e con una maggiore qualità nella
stampa. Ha reso inoltre economica e molto fedele la stampa a colori.
La testina passa sul foglio di carta schizzando un sottile getto di inchiostro da una
fila di ugelli. Dove il getto colpisce si forma un punto, e l’insieme dei punti forma il
carattere. Anche qui si tratta di una “matrice di punti” come nelle stampanti ad
impatto, ma trattandosi di gocce d’inchiostro invece che di aghi di acciaio, è
possibile farne molto vicini ed anche parzialmente sovrapposti.
Migliorando la tecnologia, le goccie d’inchiostro sono diventate sempre più piccole e
precise. Ne risultano caratteri formati da piccolissimi punti, quasi invisibili ad occhio
nudo, e quindi una stampa particolarmente nitida. La risoluzione ottenuta anche dai
modelli più economici è di 360 punti per pollice (dpi), per arrivare a 1440 per 720
dpi.
La risoluzione e la qualità di stampa aumentano in proporzione agli ugelli presenti
sulla testina. Vi sono testine a 21, 32, 48 o 64 ugelli per ogni colore o per il nero, e vi
sono stampanti a due testine (sino a 128 ugelli).
Il loro costo è basso, ormai sono le più economiche, al di sotto delle stampanti a
matrice di punti, e ciò le rende anche le più diffuse.
L’unico aspetto negativo di queste stampanti è la moderata velocità con la quale
lavorano. Nei modelli economici da 3 pagine per minuto (ppm) in un colore a 1,5
ppm a colori, nei modelli più evoluti sino a 7 ppm a colori.
I primi modelli, e quelli più economici, accettano solo fogli singoli, di formato A4. I
modelli più evoluti accettano anche carta a modulo continuo, con trascinamento a
“trattori” (cercando di rimpiazzare le stampanti a matrice di punti), e con fogli di
carta di grosse dimensioni, sino a 5 metri di lunghezza per oltre mezzo metro di
larghezza (cercando di rimpiazzare i plotter).
Non essendoci un impatto meccanico sulla carta, ovviamente, non è possibile
utilizzare moduli continui di carta chimica autocopiante per effettuare la stampa su
più copie.
Sono stati realizzati alcuni modelli molto compatti di stampanti a getto di inchiostro
per essere abbinate ai computer portatili ed ai notebook. Le dimensioni sono
eccezionalmente piccole, tali da occupare solo un terzo di una valigetta 24 ore, e
senza alcun compromesso con la qualità. La riduzione della parte meccanica ha però
provocato un sensibile rallentamento nella velocità: da 1 a 2 pagine al minuto.
Quasi tutte le stampanti a getto d’inchiostro sono a colori. E’ importante controllare
di che tipo sono le cartucce d’inchiostro. Prima di tutto, è meglio che ciascun colore
sia indipendente, in modo tale che se finisce il giallo, ad esempio, si possa sostituire
solamente la sua cartuccia e non l’intero caricatore. E’ comunque indispensabile che
il nero abbia una cartuccia separata, in quanto è il colore che si consuma più
rapidamente.
Una evoluzione molto recente delle stampanti a getto d’inchiostro, è la stampante per
riproduzioni fotografiche. La qualità è veramente alta e la fedeltà dei colori assoluta,
tanto che è quasi impossibile distinguere ad occhio nudo una di queste stampe da una
fotografia sviluppata in un laboratorio.
97
Vengono utilizzati sei colori invece dei tradizionali quattro e due testine. La
risoluzione molto alta e l’accuratezza di stampa hanno come conseguenza una
lentezza notevole: una fotografia di 10 cm per 154 cm (formato standard delle
fotografie commerciali) richiede 2 minuti.
E’ indubbio, però, che con il procedere della tecnologia queste stampanti saranno
sempre più veloci, fedeli nel colore, meno costose. Con la diffusione delle macchine
fotografiche digitali (vedi cap. 2.7) e se anche queste diminuiranno di costo, queste
stampanti andranno a sostituire l’uso dei laboratori fotografici per la stampa delle
fotografie amatoriali e turistiche.
Stampanti laser
La tecnologia delle stampanti laser è derivata da quella delle fotocopiatrici.
Un raggio laser molto sottile colpisce un tamburo in metallo elettrofotosensibile
come il selenio, modificandone la carica elettrica. Il tamburo passa quindi attraverso
una sostanza in polvere, che si attacca solamente alle zone caricate elettricamente.
Un rullo preme un foglio sul tamburo e la polvere si trasferisce sulla carta. Questa
passa poi attraverso due rulli ad alta temperatura che fondono la polvere, facendola
solidificare sulla carta.
Anche in questo caso i caratteri sulla carta sono composti da piccoli punti, nelle
posizioni colpite dal raggio laser. Essendo questo molto sottile, i punti sono quasi
invisibili ed il risultato ottimo. Inoltre la tecnica della polvere fusa produce una
stampa con un nero profondo e permanente.
Queste stampanti sono molto diffuse, nonostante il loro costo sia rimasto abbastanza
alto, perché producono una stampa confrontabile con quella ottenibile
tipograficamente. Le aziende possono così produrre circolari, relazioni, progetti, in
un numero limitato di copie, con costi accettabili e con la qualità che otterrebbero
con la più costosa stampa tradizionale.
Quasi tutte le stampanti laser possono essere installata in rete, ed in effetti gran parte
lo sono. Con la sua buona velocità di stampa e con più cassetti di alimentazione per
la carta (uno per la carta intestata, uno per la carta bianca...), una stampante laser può
soddisfare le esigenze di molti personal, di un intero ufficio o di un piano. Sono le
eredi naturali delle vecchie “stampanti dipartimentali” a matrice di punti usate con i
mainframe.
Le stampanti laser sono in genere dotate di diverse interfaccie per il collegamento
con reti a diversa tipologia ed architettura, hanno una quantità di memoria RAM
abbastanza consistente per il buffer (da 2 a 4 Mb, espandibile in genere fino a 64
Mb), posson stampare qualsiasi font e tipo di grafico. Alcune hanno un driver che
permette la stampa di buona qualità della gamma dei grigi presenti nelle fotografie
(che in genere sono riprodotte malamente dalle laser).
La risoluzione delle stampanti laser più diffuse è di 300 punti per pollice, mentre i
modelli più costosi arrivano a 400 ed a 600 punti per pollice. La velocità di stampa
varia da 6 a 45 pagine al minuto.
La maggior parte di queste stampanti accetta solamente fogli A4 e stampa in bianco
e nero. Esistono pochi modelli che stampano su carta in formato A3. Sono anche
stati effettuati tentativi di produrre stampanti laser a colori, ma la scarsa qualità ed il
costo alto hanno lavorato a sfavore lasciando il sopravvento a quelle a getto
d’inchiostro.
98
Alcune laser possono montare un dispositivo per la stampa sul fronte e sul retro dello
stesso foglio, mentre un altro dispositivo consente di collegarle a fascicolatori ed
allestitori.
Altre stampanti a colori
La tecnologia della stampa a colori è tutt’ora in piena evoluzione, con u n ritardo di
tre o quattro anni rispetto a quella in bianco e nero. E’ prevedibile un continuo
miglioramento dei meccanismi di stampa e l’introduzione di nuovi tipi di stampanti.
E’ in sperimentazione una stampate a colori wax-jet, che risulta la combinazione di
una stampante a getto d’inchiostro e di una thermal-wax. La testina funziona come
quella a getto di inchiostro, salvo che produce un getto di cera colorata fusa che si
posa sulla carta. Il foglio viene quindi fatto passare fra due rulli che lo sottopongono
ad una pressione fortissima per fissare la cera alla carta.
Un ulteriore tipo di stampante si rifà in gran parte alla tecnologia delle stampanti
laser tranne per il fatto che non è un raggio luminoso a magnetizzare la superficie del
rullo metallico di stampa, bensì una fina di minuscoli led.
Tuttavia la qualità, l’affidabilità e il costo contenuto delle stampanti a getto
d’inchiostro, fanno ritenere che queste avranno il monopolio della stampa a colori.
La compatibilità
Un capitolo molto delicato, parlando di stampanti, è quello della compatibilità.
E’ quasi impossibile trovare una stampante che funzioni sempre con tutti i
programmi. Si rischia di acquistare una stampante e di scoprire che questa non riesce
a “dialogare” con il programma con il quale lavoriamo.
Questo problema è piuttosto grave con i programmi di vecchia concezione, basati su
DOS, con i quali non è sempre possibile né facile inserire nuove stampanti. Ogni
programma ha una lista di stampanti con le quali è compatibile. Ed ogni stampante
ha una serie di emulazioni e di compatibilità. E’ necessario che le caratteristiche
richieste dal programma e quelle presentate dalla stampante coincidano.
Lavorando con i sistemi operativi Windows ‘95/97 o Macintosh, nei quali la
stampante non è gestita direttamente dal programma ma dal sistema operativo, è
necessario che la stampante ne indichi la compatibilità nelle sue caratteristiche e che
sia accompagnata da un dischetto con il driver opportuno, che deve essere installato
nel sistema operativo.
Un altro problema da tenere presente è quella dell’interfaccia. E’ necessario
controllare che l’interfaccia presente sulla stampante coincida su quella presente sul
computer. Altrimenti non si riuscirà nemmeno a collegare il cavo della stampante al
computer.
Postscript
Molte fra le stampanti laser, quelle a getto d’inchiostro, quelle thermal-wax e quelle
a sublimazione adottano un linguaggio di programmazione particolare, chiamato
Postscript. Se la stampa viene effettuata da un programma che adotta lo stesso
linguaggio, la stampa avviene ad alta qualità sia nel testo che nelle immagini.
La presenza di questo linguaggio in una stampante è molto importante. E’ un suo
merito se i risultati sono molto simili a quelli ottenibili con la stampa tipografica.
Altrimenti i caratteri stampati avrebbero la stessa risoluzione e forma di quelli che
appaiono sullo schermo, cioè deformati e spigolosi.
99
Costi accessori
Nell’acquisto di una stampante vanno considerati anche i costi accessori.
I nastri, le cartucce di inchiostro, i toner... è bene documentarsi sulla durata e sul
consumo di questi elementi, alcuni dei quali rappresentano un costo notevole,
specialmente per la stampa a colori.
Conviene accertarsi anche della durata della testina o del meccanismo di stampa.
Questi elementi hanno una vita fissata in un determinato numero di passaggi. Nel
costo della stampante bisogna includere anche il cambio del tamburo e del motore
delle stampanti laser, o della testina nelle altre.
L’efficienza, inoltre, ha i suoi costi. Mentre una stampante a matrice di punti può
essere largamente produttiva anche oltre il migliaio di pagine al mese, una stampante
a getto di inchiostro inizia ad essere controproducente anche dopo qualche centinaio.
Al contrario, acquistare una stampante laser per produrre meno di mille fogli al
mese, non costituisce un buon ammortizzamento della macchina.
Lavorando in un ambiente con molti personal, occorre valutare se convenga una sola
stampante laser dipartimentale di rete veloce, anche se costosa, piuttosto che molte
stampanti a getto d’inchiostro, anche se economiche.
Per le stampanti a colori è un discorso diverso. Si tratta più della loro necessità,
piuttosto che della loro convenienza.
100
Plotter
Un caso particolare di periferica di stampa è il plotter. Si tratta di una
apparecchiatura particolare, che sostituisce il disegnatore tecnico.
La ricerca di un plotter va abbinata alla ricerca del software da utilizzare per
effettuare il disegno, sia per i noti problemi di compatibilità, sia perché le
caratteristiche del plotter e quelle del programma di disegno devono coincidere
(dimensioni del foglio di lavoro, colori...).
Il meccanismo di stampa del plotter è costituito da un certo numero, variabile, di
pennini colorati che disegnano su un foglio molto largo. Spesso il meccanismo è così
complesso che si muovono sia i pennini (in orizzontale) che il foglio (avanti e
indietro).
Il plotter viene utilizzato nel disegno d’architettura ed in quello industriale, con
risultati superiori al disegno manuale. E’ essenziale nelle modifiche dei disegni,
potendo produrre un disegno del tutto nuovo e non uno corretto. Del resto il costo di
un plotter è molto alto, a volte superiore a quello del computer. Gli stessi programmi
di disegno sono fra i software più costosi. Il tutto ne fa uno strumento altamente
professionale.
101
Scanner e fotocamere digitali
Molto spesso è utile introdurre informazioni grafiche nel computer, come
digitalizzare una fotografia, un grafico od un testo.
Questo compito è svolto da una apparecchiatura chiamata scanner. Le foto ed i
disegni ripresi dallo scanner, convertiti in dati digitali e registrati su disco, possono
essere stampati, rielaborati e modificati a piacere.
Esistono programmi per il ritocco fotografico e per il disegno, attraverso i quali è
possibile importare l’immagine digitalizzata con lo scanner ed effettuarne tutte le
modifiche necessarie. La potenza di questi programmi consente di alterare le
fotografie e di produrne di completamente false, così come di inserire frammenti di
queste nei disegni e viceversa. Si può tagliare un’immagine, ingrandirla o ridurla,
ribaltarla, ruotarla, correggere l’esposizione, correggere la mesa a fuoco, correggere
il contrasto o la luminosità, sostituire i colori o produrre particolari effetti di rilievo,
sfaccettatura, vento, mosaico...
Lo scanner ha largo impiego nel campo della grafica computerizzata, alla quale serve
anche come modello di “ricalco” o come base per realizzare illustrazioni, marchi o
logotipi. Nel campo dell’editoria, sia aziendale che commerciale, e della pubblicità,
lo scanner serve per inserire direttamente le foto nei bozzetti, evitando costose e
lente lavorazioni presso laboratori specializzati.
Lo scanner è anche utili con un particolare tipo di applicazione, chiamato
riconoscimento ottico di caratteri (OCR), che prevede l’interpretazione di normali
fogli dattiloscritti ricavandone il testo scritto, così come se fosse stato digitato
direttamente sul computer, con percentuali di errori minime in caso di originali di
buona qualità. Questa applicazione è particolarmente utile per evitare la ribattitura di
testi già esistenti stampati o dattiloscritti, che basta “passare” nello scanner.
I programmi di riconoscimento ottico dei caratteri sono però molto sensibili alla
qualità degli originali. Testi in fotocopia sbiadita oppure con stampa difettosa,
vengono interpretati con moltissimi errori, tanti da renderne inutile l’interpretazione.
Una delle ultime novità tecnologiche sono le fotocamere digitali. Queste macchine
fotografiche, esternamente identiche a quelle tradizionali, effettuano direttamente la
digitalizzazione dell’immagine senza bisogno del passaggio su carta fotografica,
perché poi l’immagine, trasferita via cavo al computer, possa avere tutte le
elaborazioni possibili nei programmi di ritocco fotografico di cui si è parlato più
sopra.
Gli scanner
Dal punto di vista meccanico, gli scanner si possono dividere in:
• scanner a ripresa in piano;
• scanner a rullo;
• scanner a tamburo;
• scanner per pellicola;
• scanner su stativo;
• scanner manuali.
Scanner a ripresa in piano
Uno scanner a ripresa in piano è costituito, in pratica, dalla parte superiore di una
fotocopiatrice. I fogli vengono poggiati su un ripiano in vetro, al di sotto del quale
scorre una forte luce, uno specchio ed un obiettivo. All’inizio della ripresa il gruppo
ottico, formato da luce, specchio ed obiettivo, si sposta effettuando una ripresa di
tutto il foglio. Il ripiano, con il foglio, rimane fermo.
102
A differenza della fotocopiatrice, le immagini non vengono inviate ad un rullo di
stampa, ma al computer attraverso la porta seriale. Un programma trasforma i segnali
in immagini digitalizzate, che vengono registrate sul disco. Questo software è il
programma “pilota” dello scanner e quasi mai consente di modificare le immagini se
non per la luminosità, il contrasto, il taglio della ripresa ed il bilanciamento dei
colori.
Molti scanner a ripresa in piano hanno la possibilità di montare uno speciale
coperchio per la ripresa dei film fotografici, diapositive o negativi, che contiene una
forte fonte di luce. La qualità della ripresa è inferiore a quella ottenuta con gli
scanner per pellicola
Alcuni hanno anche la possibilità di montare al posto del coperchio, un meccanismo
di trascinamento con il quale è possibile scannerizzare una serie di fotografie o fogli
singoli.
Questo è il tipo di scanner più diffuso. Inizialmente aveva una qualità inferiore di
quelli a tamburo, adesso non ha nulla da invidiare agli scanner professionali, né in
risoluzione, né in fedeltà, né in velocità.
E’ possibile acquisire immagini anche da pagine di libri, oggetti piccoli come
biglietti da visita, ritagli irregolari, fogli sottili (se ci sono problemi di trasparenza,
cioè si intravede anche l’immagine presente sul retro del foglio scannerizzato, è
meglio frapporre un foglio nero fra coperchio e foglio) e persino piccoli oggetti come
orologi, penne, una mano... l’unica precauzione è quella di tenere sempre il vetro
accuratamente pulito.
Scanner a rullo
Lo scanner a trascinamento è privo del ripiano in vetro. Le fotografie od i fogli
passano attraverso un apposito inseritore e vengono trascinate sopra al gruppo di
ripresa, uscendo dalla parte opposta della macchina.
E’ più adatto per la scansione di fogli che di fotografie, in quanto queste, con la
superficie lucide e su carta fotografica rigida, spesso scivolano e si incastrano nel
meccanismo di trascinamento. Stesso discorso per fogli troppo sottili, che si
inceppano o si rompono.
Un altro problema di questi scanner è che non accettano ritagli di fogli od oggetti di
piccole dimensioni (come biglietti da visita) e che non è possibile riprodurre
immagini da libri.
Sono diffusi soprattutto come scanner economico per l’acquisizione di documenti
(lettere) a fogli singoli sia per l’archiviazione digitale che per l’OCR. Sono più
economici degli scanner a ripresa in piano, in quanto non hanno il complesso sistema
di spostamento del gruppo ottico.
ALcuni modelli permettono di staccare il gruppo ottico, che così può essere
utilizzato, come fosse uno scanner manuale, per leggere originali più grandi o per
acquisire da pagine di libro.
Scanner a tamburo
Lo scanner a tamburo è composto, invece, da un gruppo ottico fisso e da un cilindro,
o tamburo, sul quale si fissa la fotografia. Chiuso lo scanner, il tamburo inizia a
ruotare velocemente facendo passare la fotografia sul gruppo ottico.
Per la loro fedeltà, risoluzione e velocità, sono sempre stati utilizzati nei laboratori
professionali di fotocromia. Sono, infatti, gli eredi dei giganteschi scanner
specializzati utilizzati dai fotocromisti per le selezioni da stampa.
Fra i tipi di scanner, sono i più costosi. Ormai sono stati soppiantati dagli scanner a
ripresa in piano.
103
Scanner per pellicola
Lo scanner per pellicola può digitalizzare esclusivamente fotografie su diapositive o
negativi fotografici, di vari formati. La luce illumina il film da un verso, mentre dalla
parte opposta un obiettivo ne riprende l’immagine.
Non accetta, ovviamente, supporti opachi come fogli di carta.
Nonostante alcuni scanner a ripresa in piano siano dotati di un coperchio per i film,
gli scanner per pellicola sono sempre indispensabili per ricavare riproduzioni di
qualità. Essendo apparecchiature più precise, più complesse e meno diffuse, sono
anche più costose.
Scanner su stativo
Lo scanner su stativo presenta un ripiano sul quale vengono poste le fotografie,
fissate ad appositi rifermi per impedire che si muovano. Di lato sono presenti due o
quattro forti lampade, mentre dall’alto, ad una altezza modificabile, un obiettivo
riprende l’immagine.
Lo scanner su stativo ha invece la possibilità di effettuare direttamente delle vere e
proprie fotografie, potendo poggiare sul ripiano oggetti di qualsiasi dimensione.
D’altra parte la digitalizzazione di fotografie o fogli singoli presenta difficoltà:
l’originale si può spostare, si può incurvare, è soggetto al deposito di sporchi e
polvere che verrebbero ripresi con la foto compromettendone l’immagine.
Le macchine fotografiche digitali li hanno completamente sostituiti.
Scanner manuale
Lo scanner manuale ha un gruppo di ripresa molto contenuto, di larghezza limitata,
in una impugnatura che è facilmente spostabile sulla fotografia, dall’alto verso il
basso. Mentre si trascina lo scanner sulla foto, il gruppo di ripresa passa davanti
all’immagine.
Lo scanner manuale è senz’altro il modello più economico. Il piccolo gruppo di
ripresa, una diecina di centimetri, costringe però a passare più volte sulla stessa foto
se questa ha una larghezza maggiore dello scanner. Ne conseguono alcuni problemi
per “sincronizzare” le diverse porzioni dell’immagine affinché non ci si accorga che
è stata scannerizzata “a pezzi”.
Questo tipo di scanner ha avuto un momento di popolarità quando i prezzi degli
scanner a ripresa in piano erano proibitivi, soprattutto quelli a colori. Questi
apparecchi rappresentavano una alternativa “casalinga”, per chi avesse poche pretese
di qualità o pochi soldi da spendere. Ades so che i prezzi si sono abbassati, il loro
mercato si è ristretto.
Caratteristiche tecniche degli scanner
Fino a pochi anni fa, gli scanner erano lentissimi, molto costosi, capaci di riprendere
solamente in bianco e nero (al massimo 256 tonalità di grigio). L’uso era complesso
e, per immagini da pubblicare su giornali o riviste, era sempre meglio ricorrere ai
laboratori di fotocromia. In pratica si potevano utilizzare solamente per riprendere
testo o immagini grafiche semplici e monocromatiche.
Gli scanner a colori erano ancora più costosi e lenti. Davano buoni risultati
solamente con immagini in bianco e nero e pessimi con quelle a colori. Un uso
professionale era impensabile.
In pochi anni gli scanner sono diventati un’apparecchiatura dalle prestazioni prima
inimmaginabili. A prezzi del tutto abbordabili.
Le caratteristiche tecniche principali sono:
104
• risoluzione ottica: è la risoluzione fisica dello scanner. In genere è di 300 punti per
pollice (dpi) per uno scanner a ripresa in piano e 1200 dpi per uno scanner per
pellicole;
• risoluzione in output: l’immagine ripresa otticamente viene elaborata
(interpolazione) dal software di ripresa e la risoluzione viene incrementata fino a
1200, 2400, 4800 dpi ed oltre;
• colore: capacità di riconoscere le diverse sfumature di colore, o meglio, i diversi
colori. Un buon scanner dovrebbe riconoscere 16,7 milioni di colori (sensibilità
maggiore di quella dell’occhio umano) con 24 bit per pixel. Gli scanner professionali
per fotolito arrivano a riconoscere oltre un miliardo di colori a 36 bit per pixel. Con
immagini in bianco e nero sono sufficienti 256 livelli di grigio con 8 bit per pixel;
• velocità: è espressa in millisecondi (msec) per linea;
• elaborazione dell’immagine: deve essere possibile modificare il valore gamma (è
la misura del contrasto che determina i mezzitoni di un’immagine), la correzione del
colore a seconda del tipo di monitor su cui si visualizza l’immagine o della
stampante di destinazione, la nitidezza, il contrasto e la luminosità;
• interfaccia: dovrebbe essere presente sia l’interfaccia RS-232 che quella SCSI;
• formato: è il formato standard dei fogli o delle pellicole che è possibile acquisire.
Per i fogli, la maggioranza degli scanner è di formato A4 (21x29,7 cm), mentre
alcuni scanner professionali sono più grandi ed arrivano al formato A3 (29,7x42).
Per le pellicole il formato più comune è il 35 mm (24x36 mm) in striscia mentre i
formati professionali devono prevedere un apposito telaietto;
• area di lettura: rappresenta le dimensioni massime dell’area che è possibile
acquisire, che spesso non coincide con il formato;
• driver: deve essere presente un dischetto con i driver per tutti i sistemi operativi
(DOS, Windows, Windows ‘95/97/98, Windows NT, Maintosh). Gli scanner
migliori hanno un driver di tipo TWAIN, il che consente di effettuare l’acquisizione
dell’immagine direttamente dal programma di grafica, di OCR, di DTP, di
trasmissione fax, di elaborazione fotografica o di archiviazione dei documenti, senza
la necessità di usare il software specializzato;
• software: deve essere fornito almeno un programma specializzato di acquisizione,
oltre ad eventuali programmi (in versione di prova) per l’elaborazione fotografica o
l’OCR;
• affidabilità: è la durata teorica dello scanner, almeno 100 mila scannerizzazioni
negli scanner a ripresa in piano e almeno qualche diecina di migliaia in quelli per
pellicola.
105
Consigli per l’uso degli scanner
Il processo di acquisizione avviene in due tempi.
Prima si effettua un’anteprima dell’immagine, a bassa risoluzione e quindi veloce. Il
software specializzato o il driver TWAIN mostrano una riduzione dell’immagine,
sulla quale si può intervenire per effettuare tagli dell’immagine (cioè riprese parziali,
se parti dell’immagine non interessano) rettangolari o sagomati. Inoltre si può
modificare il gamma, correggere il colore, modificare contrasto e luminosità. Dopo
aver scelto la risoluzione desiderata e la quantità di colori (non sempre è necessario
utilizzare i valori massimi) e la proporzione dell’acquisizione (riducendo o
ingrandendo l’immagine), si da il via all’acquisizione vera e propria.
In questo secondo passaggio, più lento, il gruppo ottico effettua la scannerizzazione
dell’immagine con i parametri scelti. L’immagine digitalizzata è quindi registrata sul
disco rigido oppure inserita nel programma TWAIN.
Riguardo alla risoluzione, è meglio che sia la più alta possibile. Sempre parlando di
risoluzione massima, perché quella reale da utilizzare durante la ripresa deve essere
decisa in dipendenza dell’immagine da digitalizzare o del suo uso. Acquisendo
immagini da inserire in pagine Internet, ad esempio, la risoluzione deve essere di 72
dpi.
Nel caso di una fotografia, nella quale il soggetto è rappresentato da un notevole
numero di colori, la risoluzione è meno importante del numero di colori o di grigi a
disposizione. Anche se lo scanner ha una risoluzione massima di 1200 punti per
pollice, la fotografia può essere ripresa con una risoluzione di 300 punti per pollice
purché venga utilizzata l’intera gamma dei colori o dei grigi a disposizione.
Nell’immagine fotografica è difficilmente distinguibile una digitalizzazione a 300
punti da una a 600 punti. L’immagine è formata da sfumature di colore, non da punti
Al contrario, in un disegno al tratto nel quale siano usate poche sfumature di colore
e prevalgano i segni precisi dei contorni e delle linee, il numero di colori può essere
abbassato, mentre deve essere utilizzata la risoluzione massima per ottenere la
massima precisione nelle linee. Questa tendenza si esaspera nella ripresa di un
disegno tecnico in solo bianco e nero, nel quale il colore può essere ridotto ad uno
solo.
La risoluzione da usare nella ripresa deve anche essere collegata al tipo di stampa
che se ne vuole trarre alla fine della elaborazione. Se l’immagine dovrà essere
semplicemente visualizzata sullo schermo del monitor, la risoluzione deve essere di
72 dpi, cioé quella dei monitor. Se invece la figura deve essere stampata, è meglio
che la risoluzione sia uguale a quella della stampante.
E’ inutile digitalizzare a 600 punti per pollice una fotografia che sarà stampata con
una risoluzione di 300 punti per pollice. Per riprendere una foto a 600 punti invece
che a 300, lo scanner impiega il doppio del tempo e richiede una quantità
enormemente maggiore di spazio sul disco.
I programmi di ripresa ed i driver consentono di effettuare la ripresa dell’immagine
effettuando contemporaneamente una riduzione od un ingrandimento della stessa. Le
dimensioni dell’immagine si possono modificare in qualunque momento con i
programmi di ritocco fotografico, ma registrare sul disco una foto già ridotta sin
dall’inizio è un notevole risparmio di spazio. Inoltre, riducendo o, ancora peggio,
ingrandendo dopo la ripresa, si rischia che l’immagine venga distorta o sfocata.
All’atto dell’acquisizione, il programma di ripresa da la possibilità di registrare
l’immagine secondo diversi formati grafici. A questo punto è necessario conoscere
quali di questi formati sono compatibili con il programma di grafica, DTP o di
ritocco che intendiamo utilizzare.
106
I formati più utilizzati sono: TIFF per le immagini fotografiche (a meno che non
debbano essere scontornate) ed EPS per le immagini grafiche, illustrazioni o
fotografie da scontornare. Questi formati sono riconosciuti da tutti i software grafici,
DTP o di ritocco. Le immagini da inserire su pagine Internet vanno invece registrate
nei formati GIF o JPEG.
107
La fotocamere digitali
Per chi lavora con le immagini, le macchine fotografiche digitali sono l’ideale
complemento, o forse alternativa, agli scanner. Del tutto esternamente identiche
(anche nelle dimensioni) alle normali macchine fotografiche di tipo “compatto”,
all’interno non hanno un rullino di pellicola, ma una scheda di memoria RAM, una
flash RAM, nella quale vengono registrate le immagini.
Le fotocamere digitali sono, in genere, completamente automatiche, cioè in grado di
determinare il tempo di esposizione e la messa a fuoco senza nessun intervento o
taratura. L’inquadratura avviene con un mirino di tipo ottico, come quello delle
macchine fotografiche compatte, non reflex.
La ripresa è effettuata da un obiettivo ottico/digitale: la luce che entra attraverso la
lente viene convertita in pixel da un dispositivo di tipo CCD (Charge Coupled
Device). L’obiettivo è di solito ad ottica fissa, cioè non è possibile sostituirlo con un
teleobiettivo o con un grandangolo, e solo raramente ha una limitata capacità di
zoom.
Dal mirino ottico non è possibile rivedere le fotografie scattate. Per questo scopo
alcuni modelli hanno come accessorio un piccolo monitor LCD, un visore da 2
pollici o meno, agganciabile alla macchina. Con questo è possibile vedere le
fotografie scattate (singolarmente o in miniatura), e cancellare quelle che
eventualmente non vanno bene così da poter liberare spazio sulla flash RAM per
altre immagini.
Con il visore LCD montato, è anche possibile effettuare l’inquadratura ottenendo
l’immagine digitale direttamente dal sensore CCD, evitando così errori di parallasse
e consentendo anche riprese macro, trasformando la macchina in una reflex.
La flash RAM contenuta nella fotocamera ha spazio per un numero limitato di
immagini. A seconda della dotazione di serie (vi sono macchine con flash RAM di 2
o di 4 Mb), si possono acquisire da 11 a 64 fotografie ad alta risoluzione (640 x 480
pixel) e da 23 a 192 a media risoluzione (320 x 240 pixel), con 16,7 milioni di colori.
Una volta esaurito lo spazio sulla scheda, è necessario cancellare le immagini per
poterne scattare altre.
La fotocamera deve essere collegata ad un personal computer tramite un cavo seriale
RS-232 (oppure RS-422 per Macintosh) per trasferire le immagini sul disco rigido,
tramite un apposito programma o tramite un driver TWAIN ed un programma di
elaborazione fotografica. La flash RAM, cancellata, è pronta per acquisire altre
immagini.
Appositi software in dotazione alla fotocamera consentono di gestire un vero
archivio fotografico per catalogare le immagini cronologicamente o per soggetto. Le
immagini possono essere inserite in programmi di DTP o essere modificate come le
immagini acquisite dallo scanner, con tagli, modifiche di contrasto e luminosità,
messa a fuoco, trucchi e montaggi fotografici.
Nella gran parte delle fotocamere digitali, la memoria di serie della fotocamera può
essere espansa con moduli da 2, da 4, da 6 Mb ed oltre per consentire di acquisire
una maggiore quantità di immagini. I moduli di espansione sono “dedicati” e non
sono intercambiabili fa i diversi modelli di fotocamera.
Il visore LCD opzionale consente, oltre a rivedere ed eventualmente cancellare le
fotografie “sul campo”, anche di effettuare riprese macro fino a 20 centimetri di
distanza.
Non è possibile scattare foto in rapida successione, in quanto la fotocamera impiega
108
in media 6 secondi per elaborare una foto in alta risoluzione e 2 secondi per quelle in
media risoluzione.
Per avere dei riferimenti paragonabili alla fotografia tradizionale, l’obbiettivo è
equivalente ad un 40/43 mm ottico con un diaframma da F8 a F2,8, con esposizione
da 1/30 a 1/10.000 di secondo, sensibilità da 100 a 130 ASA, e con un fuoco da 60
cm all’infinito (20 cm con il visore LCD). Alcune macchine hanno uno zoom 3x.
109
I dorsi digitali
Diverso discorso è quello dei dorsi digitali di cui possono essere dotate alcune
macchine fotografiche professionali a dorso intercambiabile. Queste sono fotocamere
molto costose, ed altrettanto costosi sono i dorsi digitali che si installano al posto del
tradizionale dorso contenente la pellicola e l’otturatore.
Il dorso contiene esclusivamente il sensore digitale di ripresa e la memoria flash
RAM. Il mirino è nel corpo macchina, mentre gli obiettivi sono i tradizionali
obiettivi ottici intercambiabili. In questo tipo di macchina “assemblata”
ottico/digitale, il fotografo può scegliere sia l’obiettivo, che i parametri di
esposizione, che effettuare la messa a fuoco.
110
La rete locale
Il computer è uno strumento di produttività individuale, ma ben difficilmente
l’informazione ha un uso esclusivamente personale. Il dirigente dell’ufficio
marketing e l’impiegata dell’amministrazione svolgono delle funzioni separate,
tuttavia il primo ha bisogno dei dati che la seconda introduce nel computer. Sono
dati introdotti per fini fiscali ed amministrativi, ma il dirigente dell’ufficio marketing
li adopera come specchio dell’andamento della società e spia per le strategie future.
Le cifre vengono studiate, e quindi elaborate per dimostrare la validità od il
fallimento di strategie di marketing per il futuro. I risultati devono essere esposti alla
dirigenza dell’azienda, preferibilmente in una veste convincente, seria e gradevole.
La riservatezza dell’argomento impone di non portare il testo della relazione in una
copisteria: è l’ufficio stampa della stessa azienda che si occupa di mettere insieme i
risultati dell’elaborazione, la relazione dell’ufficio marketing ed aggiungere qualche
grafico esemplificativo che possa aiutare l’esposizione.
All’interno dello stesso ufficio marketing, i dati che pervengono
dall’amministrazione devono essere prima esaminati da qualcuno che decida quali
utilizzare e come elaborarli. Ci sarà una persona che li sistema in un formato
elaborabile, un’altra che effettua e controlla l’elaborazione, qualcuno che, da solo od
in gruppo, stila la relazione che espone le proposte strategiche per il futuro, una
persona che trasforma le proposte in cifre mentre un’altra trasforma le cifre in
grafici.
Ognuna di queste persone lavora con il proprio computer, molto spesso con dati che,
nello stesso momento, vengono utilizzati anche da un collega. Un terzo sta
aspettando il risultato per poter procedere a sua volta. Questo lavoro di gruppo non
potrebbe realizzarsi, i dati ed i risultati delle elaborazioni non potrebbero essere
condisivi in modo istantaneo se i computer non fossero collegati in rete.
Il collegamento in rete permette:
- la condivisione delle informazioni;
- la condivisione di dispositivi hardware come dischi rigidi, ottici, stampanti, modem
fax.
Per “collegamento in rete” si intende un gruppo di computer in grado di accedere
contemporaneamente allo stesso archivio di dati e con la possibilità di trasmettersi
l’uno con l’altro qualsiasi tipo di documento. Non appena il lavoro di un ufficio
viene automatizzato grazie all’uso di computer, è necessario prevedere subito la
messa in opera di un collegamento in rete.
La connessione è essenziale per il lavoro di un ufficio. Non solo permette lo scambio
di informazioni fra i diversi reparti od impiegati, ma anche consente di lavorare
sempre su dati corretti ed aggiornati. Con opportuni programmi che regolino lo
scambio di dati, lo stesso archivio di informazioni può essere aggiornato
dall’amministrazione mentre l’ufficio marketing lo sta già elaborando.
L’archivio, ovviamente, deve risiedere in un disco rigido su uno dei computer
collegati alla rete. La collocazione ideale delle informazioni è quella più vicina a chi
le deve utilizzare o aggiornare il maggior numero delle volte. Un archivio come
quello del nostro esempio dovrebbe risiedere nel disco rigido di un computer
dell’amministrazione.
Oltre che permetterci di condividere le informazioni, il collegamento in rete consente
anche di utilizzare in molti una sola periferiche. Invece di acquistare una stampante
ad impatto, dai risultati mediocri per ciascun computer, è possibile acquistare una
111
stampante laser, dalla qualità di stampa ottima, e collegarla in rete in modo che tutti
possano utilizzarla.
Lo stesso può essere fatto con un juke-box di dischi ottici, con una stampante a
colori o con un modem fax. Pur acquistando un unico apparecchio, ogni computer lo
può usare senza nessuna necessità di spostamenti, allacciamenti volanti, turni.
La connessione viene realizzata attraverso la presenza di apposite schede inserite nei
computer e l’allacciamento di tutti i computer con speciali cavi. In questo modo
ciascun computer diventa una postazione di lavoro della rete, pur conservando tutte
le caratteristiche di indipendenza tipiche del personal.
Software di rete
La struttura di una rete può diventare rapidamente molto complessa ed il traffico di
dati arrivare a volumi altissimi. Perché tutto si svolga nel miglior modo è necessaria
la presenza di un apposito programma che gestisca tutta la vita della rete. Devono
essere ben determinate le identità degli utenti della rete, il numero e le caratteristiche
delle postazioni di lavoro, il numero e le caratteristiche delle periferiche collegate,
l’esistenza e la consistenza degli archivi condivisi.
Inoltre il programma che gestisce la rete deve regolare tutto il traffico di dati,
facendo si che i lavori inviati in stampa arrivino alla giusta stampante e che i dati in
lettura ed in scrittura inviati fra l’una e l’altra delle postazioni non si confondano.
Infine deve tener conto di una gerarchia nelle possibilità di accesso alle informazioni.
Non tutto può essere letto e modificato da tutti. I dati relativi alla fatturazione devono
poter essere accessibili in lettura dall’ufficio marketing, mentre possono essere
modificati solo dall’ufficio amministrativo. Altri dati riservati, come le retribuzioni o
la corrispondenza contenente progetti ed offerte, devono poter essere accessibili
solamente alla dirigenza dell’azienda.
Il programma di gestione della rete risiede in un computer apposito, adibito
esclusivamente a questo scopo e per questo chiamato server. Il server della rete
funziona come un maggiordomo: conosce tutti gli utenti e sa quando iniziano a
lavorare e quando finiscono, conosce tutte le apparecchiature e sa quando sono in
funzione, accoglie e guida a destinazione tutti i dati che devono attraversare la rete
da un computer all’altro o fra un computer ed una periferica.
Caratteristiche tecniche
La creazione di una rete avviene con l’inserimento di una scheda all’interno di
ciascun computer, con la sistemazione di un cavo che le unisca e l’installazione di un
apposito programma di gestione della rete. La scelta delle schede, dei cavi e del
programma è conseguente alla scelta dell’architettura scelta per la rete.
L’architettura delle reti di computer è molto complessa. Le reti si dividono per:
- localizzazione delle postazioni;
- topologia;
- metodologia;
- tecnologia;
- protocollo;
- sistema operativo di rete.
112
Localizzazione delle postazioni
Esistono due tipi di rete. Nella prima le postazioni di lavoro si trovano tutte nelle
vicinanze del server, nello stesso palazzo o comunque entro la distanza massima
consentita per la connessione diretta tramite cavo, distanza che può variare a seconda
del tipo di tecnologia utilizzata. Questo tipo di rete viene chiamata LAN, Local Area
Network.
Nella seconda le postazioni possono risiedere a qualsiasi distanza, in zone, città,
nazioni o continenti diversi. La connessione non può essere messa in opera
direttamente con cavi, ma viene realizzata tramite collegamenti telematici attraverso
linee telefoniche ordinarie, linee dedicate o servizi telematici pubblici o privati.
Questo tipo di rete viene chiamata WAN, Wide Area Network.
113
Topologia
Le postazioni di lavoro appartenenti alla stessa rete possono essere collegate in
diversi modi:
- ad anello, quando il cavo parte dal server, si innesta in ciascuna postazione e dalla
stessa riparte per la successiva o per una periferica, e così via fino a quando non
ritorna allo stesso server chiudendo il cerchio;
- a stella, quando dal server partono tanti cavi quante sono le postazioni o le
periferiche, con tanti collegamenti singoli;
- a bus, quando dal server parte un solo cavo, che si innesta in ciascuna postazione e
dalla stessa riparte per la successiva o per una periferica, come nella topologia ad
anello, ma non torna al server, bensì termina all’ultima postazione.
Metodologia
Per metodologia si intende il metodo con in quale ciascuna postazione di lavoro invia
e riceve i dati. Le metodologie usate sono due:
- CSMA/CD, Carrier Sense Multiple Access / Collision Detection, che sta per
“Accesso multiplo con rilevamento della portante e riconoscimento delle collisioni);
- token passing, cioè “passaggio di contrassegno”.
La metodologia CSMA/CD
La portante (carrier) è il segnale elettrico che passa sul cavo trasportando i dati.
Ciascuna postazione, prima di trasmettere i suoi dati sul cavo, rileva se sul cavo è già
presente una portante o meno. Se non la rileva, trasmette i dati; se la rileva si ferma
per riprovare dopo una frazione di secondo. Le portanti si alternano alcuni milioni di
volte ogni secondo.
Potrebbe capitare che due postazioni stiano tentando di trasmettere dati allo stesso
tempo, e che non rilevando alcuna portante sul cavo iniziano contemporaneamente la
trasmissione. In questo caso non possono individuare l’uno la portante dell’altro, ed i
dati inviati si disturbano a vicenda.
Il riconoscimento delle collisioni serve, appunto, a riconoscere queste situazioni. In
questo caso la postazione o la periferica destinatari della trasmissione non ricevono il
dovuto flusso di dati e quindi non possono inviare, a loro volta, il segnale di
“ricevuto”. La postazione originale si accorge della mancata risposta ed invia
nuovamente i dati.
La metodologia token passing
L’accesso alla trasmissione dei dati viene concessa ad ogni postazione di lavoro
secondo un turno prestabilito. Il token è un segnale di contrassegno che viene inviato
dal server alla prima postazione della rete. Se questa postazione ha necessità di
trasmettere dati, lo può fare ed ha la temporanea proprietà esclusiva della rete. Al
termine della trasmissione, o se la postazione non ha nulla da trasmettere, passa il
contrassegno alla postazione immediatamente successiva nel turno.
Il token viene passato da postazione a postazione, fino all’esaurimento del turno e ad
un nuovo inizio. Con questo sistema sono evitate le collisioni di dati, poiché ogni
postazione è l’unica a trasmettere. In caso di una trasmissione di una serie di dati
particolarmente lunga, od in presenza di una sosta dovuta alla lettura dei dati dal
disco rigido, la rete rimane per lungo tempo occupata e tutte le altre postazioni sono
impossibilitate ad utilizzarla.
La metodologia CSMA/CD consente una migliore ottimizzazione della rete, in
114
quanto ciascuna postazione può utilizzare i tempi morti delle altre.
Tecnologia
La tecnologia di rete si riferisce alle regole di comunicazione fra server, postazioni di
lavoro e periferiche. Ciascuna tecnologia di rete utilizza esclusivamente una
metodologia ed una topologia ben definite.
Alcune fra le più diffuse sono:
- Ethernet (metodologia a CSMA/CD e topologia a bus);
- Token ring (metodologia a Token passing e topologia ad anello);
- Appletalk (metodologia a CSMA/CD e topologia a bus).
Ciascuna tecnologia ha diverse caratteristiche, con limiti differenti sulla distanza
massima fra il server e gli estremi della rete e sul numero di postazioni collegabili.
Protocollo
Come nella trasmissione di dati via modem, anche nelle trasmissione di dati
attraverso la rete ha bisogno di definire il protocollo, cioè il modo in cui i byte
vengono codificati e trasmessi lungo i cavi.
Mentre c’è una corrispondenza univoca fra topologia e tecnologia di rete, ciascuno
protocollo può essere adottato dalle diverse tecnologie sulle rispettive topologie. Reti
con diverse tecnologie possono avere lo stesso protocollo, mentre reti con la stessa
tecnologia potrebbero usare diversi protocolli.
I protocolli principali sono stati stabiliti dalle stesse case produttrici, tranne uno che è
stato elaborato dal Ministero della Difesa degli Stati Uniti che, essendo il maggior
acquirente al mondo di computer, in pratica detta legge sugli standard:
- TCP/IP (richiesto dal Ministero della Difesa degli Stati Uniti, viene adottato da
tutte le tecnologie di rete);
- IPX/SPX (sviluppato dalla Novell, una casa produttrice del più diffuso sistema
operativo di rete operante sui personal computer);
- NetBIOS e SDLC (sviluppati dalla IBM ed utilizzati per i propri elaboratori e
personal).
Sistema operativo di rete
Il programma che gestisce la rete ed amministra tutte le postazioni di lavoro e le
periferiche collegate, è per la rete l’equivalente del sistema operativo per il singolo
computer. Su di lui risiede la responsabilità del funzionamento dell’intera rete, della
trasmissione dei dati da una postazione ad un’altra, da una postazione ad una
periferica, da un disco ad una postazione e viceversa.
Il programma di rete deve risiedere in un computer dedicato a questa sola funzione,
chiamato server, e deve sempre essere in esecuzione.
115
Spesso il sistema operativo di rete è in grado di gestire reti con metodologie,
topologie, tecnologie e protocolli diversi.
Parallelamente, deve essere presente un programma di amministrazione della rete, a
volte in esecuzione sullo stesso server, altre volte da una postazione di rete. Il
programma di amministrazione deve:
- autorizzare l’accesso di nuovi utenti;
- cancellare utenti da escludere;
- stabilire criteri di riservatezza e gerarchie di accesso ai diversi archivi connessi alla
rete;
- identificare ciascuna postazione e ciascuna periferica con un identificativo univoco;
- controllare l’efficienza della rete, la perfetta trasmissione dei dati, gli eventuali
malfunzionamenti;
- stabilire le modalità di connessione fra la rete gestita ed altre reti eventualmente
collegate.
L’accesso al programma di amministrazione della rete viene concesso
esclusivamente, tramite una parola d’ordine, al network manager, figura essenziale
in qualsiasi tipo di rete, piccola o grande che sia.
Il network manager, oltre ad assolvere ai compiti sopra elencati, deve stabilire la
collocazione e la dimensione fisica della rete e controllarne frequentemente lo stato.
Componenti della rete
Altri componenti fisici o logici della rete, oltre al sistema operativo, sono:
- server;
- nodo;
- pacchetto;
- cavi;
- repeater;
- bridge;
- router;
- gateway.
Server
E’ il computer sul quale è in esecuzione il sistema operativo di rete. Non è
importante la sua collocazione fisica nell’ambito della rete, se non nella topologia a
stella. In quelle a bus o ad anello può essere una qualsiasi delle postazioni.
La maggior parte dei programmi di rete richiede che il server sia adibito a questo
scopo esclusivo, e quindi quella postazione non può essere utilizzata per l’ordinario
lavoro.
Nodo
Il termine si riferisce a qualunque apparecchiatura sia connessa alla rete, sia una
116
postazione che una periferica, sia un server che un bridge o router. I nodi sono
identificati dal sistema operativo di rete con un numero assegnatogli all’atto
dell’installazione della singola apparecchiatura. Il numero identificativo del nodo
costituisce l’indirizzo della apparecchiatura.§
Pacchetto
Il pacchetto è il più piccolo blocco di dati che il protocollo utilizzato dalle rete è
capace di trattare. I documenti inviati da un nodo ad un altro vengono suddivisi in
pacchetti. In ciascun pacchetto, altre ai dati, sono presenti i numeri dei nodi di
destinazione e di partenza e il numero progressivo del pacchetto all’interno
dell’intera trasmissione. Ciò consente, nel protocollo CSMA/CD, di identificare i
pacchetti persi per collisione e di effettuarne la ritrasmissione.
Cavi
La scelta dei cavi con i quali effettuare la trasmissione deve essere effettuata in
considerazione non solo del costo dei cavi e delle loro installazione, ma soprattutto
delle dimensioni che la rete deve avere, delle tecnologie utilizzate e del traffico
prevedibile di dati. I tre tipi di cavi più utili sono:
- doppino telefonico: filo a due poli, spesso non schermato, utilizzato per le normali
linee telefoniche (il costo è molto basso, l’efficienza buona e la capacità di traffico
mediocre);
- cavo coassiale: filo a due poli, uno interno ed uno esterno che funziona anche da
isolante per interferenze elettriche esterne (il costo è medio, l’efficienza buona e così
anche la capacità di traffico);
- cavo ottico: i dati viaggiano grazie ad un segnale luminoso generato da un laser
attraverso un cavo in fibra di vetro (il costo è molto alto, l’efficienza ottima e la
capacità di traffico altissima).
Un tipo di collegamento attualmente in sperimentazione prevede il collegamento
senza l’utilizzo di cavi. Due sono i metodi:
- con infrarossi;
- con onde radio.
Nel primo caso ciascun nodo è dotato di un sensore ricevete e di un emettitore di
infrarossi. Ciascun nodo, però, devo trovarsi a portata visiva di un altro e il contatto
non deve interrompersi, quindi non deve essere disturbata da oggetti, da apertura o
chiusura di porte o passaggio di persone.
Nel secondo caso i nodi sono dotati di un ricetrasmettitore radio. I nodi possono
trovarsi anche in posti diversi di un palazzo, od in palazzi adiacenti. Questa tipo di
collegamento offre innumerevoli vantaggi.
Una applicazione è legata all’uso di computer notebook a penna. Grazie al
collegamento via radio, ciascun notebook può essere utilizzato all’interno di un
edificio con una mobilità assoluta. Ad esempio, ne possono essere dotati i medici o
le infermiere di un ospedale, che così possono accedere ai dati generali di tutti i
pazienti ed integrarli con prescrizioni, note, osservazioni e diagnosi direttamente
dalla stanza del paziente.
Utilizzando frequenze radio diverse, vicine a quelle delle normali radio
117
ricetrasmittenti, può collegarsi alla rete pur trovandosi in una qualunque parte della
città. Soluzione studiata per i rappresentanti commerciali o per i dirigenti impegnati
in riunioni fuori dalla sede dell’azienda.
Repeater
Ciascuna tecnologia di rete ha una distanza massima oltre la quale i dati non possono
essere trasmessi. Il segnale arriva, a quella distanza, ai limiti della comprensibilità,
deteriorato e affievolito dal passaggio nel cavo. Un repeater amplifica e ritrasmette il
segnale, aumentando così la distanza massima raggiungibile dalla rete. Attraverso il
repeater passa tutto il traffico di dati, non solo quello destinato alla parte opposta
della rete, in modo da trasmettere la portante del segnale nelle metodologie
CSMA/CD per occupare la rete, o il contrassegno di turno nelle metodologie token
passing.
Bridge
Un bridge consente il collegamento fra due reti, in modo che le due reti ne formino
una sola e che ciascun nodo della prima rete possa ricevere o trasmettere dati
scambiandoli con un nodo della seconda rete.
Il bridge è collegato ad entrambe le reti ed esamina tutti i pacchetti in circolazione
nelle due reti. Quando riconosce, in un pacchetto di una rete, l’indirizzo di un nodo
appartenente all’altra rete, lo smista in modo totalmente invisibile per gli utenti. Il
normale traffico di dati all’interno di ciascuna rete continua ad avvenire in modo del
tutto indipendente e separato.
Router
Un router è un dispositivo che unisce due reti. Se una od entrambi queste reti sono
connesse ad altre tramite altri router, anch’esse sono connesse fra loro. I dati possono
essere scambiati anche fra nodi di reti non adiacenti, attraverso il passaggio di router
diversi.
Il router riconosce l’indirizzamento del pacchetto, e lo inoltra a destinazione
attraverso diverse reti e diversi router seguendo la strada più conveniente. Nel caso
che questa strada sia interrotta per traffico eccessivo di una delle reti intermedie o del
suo blocco per malfunzionamento, il router cerca di inoltrare i dati seguendo percorsi
alternativi. Il normale traffico di dati all’interno di ciascuna rete continua ad avvenire
in modo del tutto indipendente e separato.
Gateway
Un gateway permette la connessione fra due reti che utilizzano diversi protocolli di
trasmissione, traducendo i pacchetti di dati da un protocollo all’altro. Il gateway è
tipicamente utilizzato per connettere una rete costituita da personal computer ed una
costituita da un mainframe ed i suoi terminali.
Le postazioni di lavoro della rete di personal computer possono diventare, tramite il
gateway, terminali del mainframe collegato. Hanno bisogno, oltre del normale
sistema operativo di rete, anche di un apposito software che, in esecuzione sulla
singola postazione, simuli le caratteristiche hardware dei terminali utilizzati nella
rete del mainframe e che effettui tutti gli adattamenti necessari per i diverso tipi di
linguaggi e protocolli dei mainframe.
In pratica non è la rete dei personal ad essere connessa con il mainframe, ma è la
singola postazione che, tramite la rete ed in gateway, diventa un terminale del
mainframe aprendo con quest’ultimo una sessione di lavoro. Mentre per connettere
due reti è sufficiente un solo bridge od un solo router, per connettere una rete di
personal ad un mainframe possono essere necessari più gateway, in quanto ciascuno
118
può consentire un numero limitato di sessioni di lavoro.
Considerazioni finali
L’avvento delle reti di personal computer è stato il passo decisivo perché il personal
potesse avere un ruolo nell’informatica aziendale. La possibilità di interconnettersi
fra di loro, tramite bridge e router, e con mainframe, tramite gateway, formando reti
composte da altre reti, è stato il passo successivo verso la completa integrazione fra
sistemi diversissimi.
Con questi strumenti è possibile integrare il lavoro compiuto in ambienti diversi, con
programmi differenti e su macchine incompatibili. L’informatica, che era composta
da tante aree isolate, si è tramutata in un unico ambiente grazie alla presenza attiva
del personal computer. Esistono ancora molte difficoltà, e la situazione può essere
simbolicamente rappresentata dal fatto che il capitolo della connessione in rete è
quello che adotta il maggior numero di sigle ed acronimi di tutta l’informatica.
In termini produttivi, una rete è già in attivo anche con pochissimi computer
collegati, non fosse altro che per la possibilità di acquistare un numero limitato di
periferiche che, inserite come nodi della rete, possono essere utilizzate da tutte le
postazioni di lavoro.
119
Il Cabinet
Case Tower
Case Mid Tower
Case Mini Tower
Il cabinet è il contenitore che racchiude l'elettronica del computer.
Fondamentalmente le categorie sono due, con qualche variante:
DESKTOP
TOWER
Slim (compatto)
Desktop
Minitower
Tower
Connettori
da 2 a 4
da 6 a 8
da 5 a 8
8
Vani esterni
2o3
3o4
3o4
da 4 a 6
Vani interni
1o2
2o3
2o3
120
da 4 a 6
Pro
Estremamente compatto.
Può essere usato come supporto per sollevare il monitor
Per l'utente medio offre una buona espandibilità
Si può posizionare sotto la scrivania Espandibilità ottima
Contro
Limitazione sulla espandibilità
L'espandibilità non è sempre facile
Interno spesso caoticamente super affollato
Per un utilizzo medio può essere troppo ingombrante
Le nuove schede madre di tipo ATX richiedono un cabinet predisposto di dimensioni
differenti da quelle standard..
121
La motherboard (Scheda madre)
Potete chiamarla come volete: scheda madre, mainboard,
motherboard, ma il suo ruolo resta comunque inalterato: è
la centrale di comando, il cuore del sistema. La scheda
madre costituisce sicuramente la parte più importante del
computer. In essa trovano alloggiamento numerosi
componenti:
Una motherboard baby AT con i
principali componenti

il processore (CPU)

la memoria RAM

il BIOS

controller per unità a dischetti e dischi fissi

gli slot (alloggiamenti delle schede di espansione)
a 16 e 32 bit.

il Chipset

le porte di comunicazione
122
123
La CPU pagina 1 di 2
Il processore (chiamato anche CPU, dall'inglese Central
Processing Unit) è il cervello del personal computer, esegue
milioni di operazioni al secondo e il suo compito è occuparsi di
tutte le operazioni richieste dalle applicazioni e dal sistema
operativo. E' installato su uno speciale zoccolo saldato sulla scheda
madre detto socket:
124
125
La RAM
In un personal computer la
memoria principale viene
chiamata RAM (Random Access
Memory), maggiore è la sua
quantità e migliori saranno le
prestazioni del computer dove essa
opera.
I programmi odierni, sempre più complessi, richiedono sempre più memoria. I chip RAM
sono installati su moduli (piccole schede) chiamati Simm (Single In-line Memory Module) o
sui nuovi Dimm (Dual In-line Memory Module). Questi moduli sono a loro volta inseriti
negli appositi slot presenti sulla scheda madre.
La memoria viene misurata in byte, dove:

1 byte = 8 bit (1 bit è l'unità elementare di informazione binaria che può assumere i
due valori 0 o 1 )

1 kilobyte (Kb) = 1024 byte

1 Megabyte (Mb) = 1024 Kb

1 Gigabyte (Gb) = 1024 Mb
Quanta RAM è necessaria ?
Sitema operativo
RAM consigliata
DOS con Windows 3.xx
16 Mb
Windows 95
32 Mb
Windows 98
64 Mb
Windows NT
126
64 Mb
127
I moduli memoria in dettaglio
In questa sezione della guida sono stati riprodotti tutti i differenti tipi di moduli memoria
attualmente commercializzati, così da poterli facilmente individuare:
Modulo memoria Simm 30pin
Modulo memoria Simm EDO da 72 pin
Modulo memoria SDRAM PC100 dalla capacità di 32 Mbytes
Modulo memoria SDRAM PC133, da 64 Mbytes di capacità
Modulo memoria SDRAM PC133 ECC Registered, dalla capacità di 256 Mbytes; i chip montato in
orizzontale, nella parte inferiore del PCB, gestiscono le funzioni di correzione d'errore.
Modulo memoria DDR-SDRAM PC2100, da 128 Mbytes di capacità
128
Modulo memoria Rambus, PC800, da 128 Mbytes di capacità
129
I vari Slot memoria presenti sulle schede madri
Una scheda madre è formata da numerosi, differenti componenti; gli Slot memoria sono in genere
facilmente individuabili ma per maggiore praticità sono stati indicati nell'immagine sottostante,
riproducente la scheda madre Socket 370 Abit BX-133 Raid:
I tre Slot memoria per moduli Dimm a 168 pin montati sulla scheda madre Abit BX-133 Raid sono
facilmente indviduabili: in genere i banchi memoria sono disposti in orizzontale, parallelamente al
lato più lungo della scheda madre, così da sfruttare al meglio la superficie della scheda madre ed
evitare che i moduli possano andare in contatto con altri componenti.
Nella sezione precedente sono stati indicati i differenti tipi di moduli memoria disponibili;
ovviamente, ad ogni modulo memoria corrisponde un differente banco memoria montato sulla
scheda madre:
Banco memoria Simm a 72 pin, capace di accettaremoduli memoria Simm Fast Page ed EDO da 72
pin. Tale banch è in genere montato sulle schede madri per cpu Intel Pentium e su alcune delle
schede madri per processori 486.
Banchi memoria per moduli Dimm a 168 pin: sono i banchi memoria più diffusi tra quelli presenti
in comemrcio, capaci di accettare moduli memoria SDRAM PC66, PC 100 e PC133. A seconda del
130
chipset utilizzato è possibile utilizzare, con banchi memoria, anche moduli memoria ECC, ECC
Registered e VC (Virtual Channel).
Banchi memoria per moduli RIMM Rambus: in essi è possibile montare soltanto moduli memoria
RIMM (Rambus); a seconda della frequenza di bus selezionata sarà possibile utilizzare uno dei tre
differenti tipi di memoria Rambus a disposizione, tra PC600, PC700 e PC800.
Particolare della reference board Socket A AMD Corona, basata su chipset AMD-760; in
particolare si notano i 4 Slot memoria per moduli DDR-SDRAM.
131
Il disco fisso
Un po' di teoria
Il disco fisso (in inglese hard disk) è una sorta di
contenitore elettronico dove vanno conservate le
informazioni di cui non si ha un bisogno immediato, ma
che comunque devono essere conservate. Il disco fisso
fa parte della categoria memorie di massa (insieme al
floppy disk e unità a nastro). Il supporto magnetico dei
dischi fissi e dei floppy disk è suddiviso in una serie di
cerchi concentrici separati l'uno dall'altro chiamati
tracce.
La superficie del disco, quindi è divisa da questi cerchi/tracce ben distinti, che iniziano dal
bordo esterno fino ad arrivare alla traccia più interna. La quantità delle tracce varia a seconda
del tipo di disco. Proprio come la larghezza del disco è suddivisa in tracce, la circonferenza
di ogni traccia è a sua volta suddivisa in diversi segmenti adiacenti chiamati settori. I settori
contenuti nelle tracce e le tracce contenute sulla superficie del disco vengono identificati con
dei numeri che vengono loro assegnati.
132
133
IL CD-ROM
Quello che fino a qualche tempo fa veniva considerato un
optional è divenuto un elemento fondamentale del sistema. E'
in grado di memorizzare una quantità impressionante di dati
(650 Mb). I lettori CD-ROM non sono tutti uguali. La
continua variazione delle velocità dalla 2X alla 50X hanno
migliorato la transfer rate che nei primi lettori 1X era di 150
Kbps (KByte per secondo).
Vale la pena precisare infatti, che la denominazione 52X non sta ad indicare una velocità di
rotazione 52 volte più veloce rispetto alla 1X, ma questo parametro indica il Data Transfer
Rate, ossia la quantità di dati inviata al pc: ad esempio un 40X invierà, a parità di tempi, un
quantitativo di dati doppio del 20X.
Il DVD
Il DVD acronimo di Digital Versatile Disk rappresenta il naturale
miglioramento della tecnologia CD-ROM. Utilizzando una
tecnologia di memorizzazione su dischi ottici di nuova generazione,
sarà utilizzato per supportare una vasta gamma di prodotti
elettronici di consumo e di periferiche per PC. Il DVD non è
semplicemente un ulteriore supporto di memorizzazione, ma un
sistema di memorizzazione digitale in grado quindi di sostituire le
attuali tecnologie di memorizzazione su CD audio, CD-ROM,
videonastri VHS ecc. La tecnologia DVD è stata appositamente
progettata per applicazioni multimediali, audio, video e dati e
sostituirà presto il caro vecchio CD-ROM.
134
Il DVD è in grado di memorizzare una quantità enorme di dati, garantendo una piena
compatibilità in lettura con i maggiori dispositivi di archiviazione ottica. Il suo supporto può
essere cancellato e riscritto come su un disco fisso grazie a una particolare tecnologia
chiamata " a cambiamento di fase" . Vengono proposti sia in versione SCSI che IDE. Le
unità DVD sono compatibili con la tecnologia ottica preesistente e sono quindi in grado di
leggere i comuni CD-ROM.
135
Il modem
Ciò che fino a qualche tempo fa era considerata una necessità per pochi eletti è ora divenuto
un elemento indispensabile: stiamo parlando del modem (modulatore - demodulatore), la
porta di accesso del computer al mondo esterno. Questo preziosissimo elemento che
consente i collegamenti a Internet, servizi online, banche dati e BBS, ha subito negli ultimi
anni straordinari incrementi di prestazioni tanto da arrivare a velocità di 56 kilobit (57.600)
per secondo:
Evoluzione del modem
Anno
1995
1996
1997
1998
Velocità Kbps
14,4
28,8
33,6
56
136
Il monitor
La gamma di monitor presenti sul mercato è molto ampia. La
maggior parte dei computer viene offerta con monitor da 14" (14
pollici) e questa non rappresenta di certo la soluzione ideale. A
fronte di un minimo risparmio viene corrisposta una prestazione
spesso scadente.
Un buon display da 15 pollici ha un prezzo di circa 150 - 200 mila lire superiore ad un 14"
ma i suoi vantaggi compensano pienamente la differenza di prezzo. La maggiore area di
visualizzazione consente di visualizzare comodamente una risoluzione di 800 x 600 punti.
Ricordarsi che la qualità alla fine paga sempre, soprattutto quando a farne le spese è la vista.
Per chi poi passa molte ore davanti ad un computer sarebbe consigliabile un monitor a 17
pollici. Se poi il vostro lavoro è collocato nell'ambito della grafica o del CAD (Computer
Aided Design), allora la risposta è categorica: 21 pollici.
Una raccomandazione importante: valutare il monitor vedendolo in funzione. Non acquistare
mai a scatola chiusa.
137
La scheda Video
Per l'utilizzo medio o per il piccolo ufficio occorre
orientarsi su modelli con 4 Mb di RAM video. Per i
professionisti della grafica il consiglio è di indirizzarsi
verso modelli con 8 Mb di Ram video. Nella scelta del
minitor e della scheda accertatevi che qesti elementi
possano supportare elevate frequenze di refresh e
risoluzioni elevate.
Quantità minima di Ram video per risoluzione e numero di colori
Risoluzione
16 col.
(4 bit)
256 col.
(8 bit)
65.000 col.
(16 bit)
16,7 milioni col.
(24 bit true color)
640x480
500 Kb
500 Kb
1 Mb
2 Mb
800x600
500 Kb
1 Mb
2 Mb
2 Mb
1024x768
1 Mb
1 Mb
2 Mb
4 Mb
1280x1024
1 Mb
2 Mb
4 Mb
4 Mb
1600x1200
2 Mb
2 Mb
4 Mb
138
8 Mb
1800x1440
2 Mb
4 Mb
8 Mb
8 Mb
La risoluzione consigliata
Poichè alle risoluzioni più alte i caratteri appaiono più piccoli con maggiori aree visualizzate
sullo schermo, è necessario adattare la risoluzione in base alla dimensione del monitor per
evitare immagini troppo piccole e di sicuro fastidio per la vista.
Riportiamo la risoluzione ideale in relazione alla grandezza del monitor.
Risoluzione
15 "
17"
19"
640x480
si
si
si
800x600
si
si
si
1024x768
sconsigliata
si
si
1280x1024
no
sconsigliata
si
1600x1200
no
no
no
139