Informatica - Home Page di Andrea Leotardi

annuncio pubblicitario
Specifiche tecniche tratte da “Scott Mueller, Upgrading and Repairing PCs, Seconda Edizione,
QUE Corp. USA, 2001”
Specifiche dei processori tratte da:
Intel Website: http://www.intel.it
AMD Website: http://www.amd.com
Significato delle sigle tratto da:
The PC Guide Website: http://www.pcguide.com
1
L’INFORMATICA NELL’ERA DEL PERSONAL
7
Un personal su ogni scrivania
7
Struttura logica e fisica dell’informazione
8
L’INTERPRETAZIONE BINARIA
9
Bit e byte
9
Byte, Kilobyte e Megabyte
10
La rappresentazione esadecimale
11
IL PERSONAL COMPUTER
12
Desktop
12
Portatili
13
Notebook
13
Pen book
14
Palmtop
14
Gli altri computer
14
Hardware e software
15
COME SCEGLIERE UN PERSONAL COMPUTER
16
L'ORGANIZZAZIONE DELLE INFORMAZIONI
19
Una strategia per l'organizzazione
GUASTI, ASSISTENZA E CRIMINI
20
23
L'assistenza
23
L'origine dei guasti
24
Le precauzioni
25
In caso di guasto
25
I virus
26
Il crimine informatico
27
Il backup
28
2
Programmi di protezione
29
Le controindicazioni alla protezione
29
ASSEMBLARE IL PROPRIO PERSONAL
30
CPU
32
Mother board
32
RAM
32
Costi
33
IL MICROPROCESSORE
34
Caratteristiche tecniche
34
Microprocessori RISC
35
Considerazioni finali
36
Clock
36
LA MEMORIA
37
Memoria ROM
37
Memoria RAM
37
Volatilità della RAM
38
Dimensione della RAM
38
Memoria virtuale
39
LA SCHEDA MADRE
40
Processore DMA
41
Porte Esterne
42
USB
43
FireWire
43
Firmware e BIOS
43
Flash-ROM e Boot-ROM
44
LA SCHEDA VIDEO
45
Il Processore Grafico (GPU)
45
LA Video RAM
45
Il RAMDAC
46
3
LA SCHEDA AUDIO
47
LE UNITÀ DI MEMORIA DI MASSA
48
Caratteristiche tecniche
48
Dischi rigidi
49
I controller IDE e SCSI
49
I dischi fissi
51
Compact Disc
52
Supporti di memoria a registrazione ottica
53
Masterizzatori CD-R
54
Masterizzatori CD-RW
55
Digital Versatile Disk (DVD)
56
Considerazioni finali
57
La standard SCSI
58
MODEM E TELECOMUNICAZIONI
59
Modulazione e demodulazione
59
Protocolli
59
Commutata e ISDN
60
Linee dedicate
60
Caratteristiche tecniche
60
Indipendenti ed a schede
61
Modem/telefax
61
Considerazioni finali
62
Collegamenti a grande distanza
63
SCHEDA DI RETE
64
IL MONITOR
65
Monitor CRT
65
Monitor LCD
66
Considerazioni finali
66
Le radiazioni
68
4
Schermi touch screen
68
Data show
69
Videoregistratore
69
LA TASTIERA
70
Caratteristiche tecniche
70
Considerazioni finali
72
IL MOUSE
73
Mouse senza filo
74
La track ball
74
La touch pad
74
La tavoletta grafica
75
Il joystick
75
LE STAMPANTI
76
Evoluzione delle stampanti
76
Stampanti a matrice di punti
78
Stampanti a caratteri
78
Stampanti a getto di inchiostro (ink-jet)
79
Stampanti laser
80
Altre stampanti a colori
80
La compatibilità
81
Postscript
81
Costi accessori
81
Plotter
82
SCANNER E FOTOCAMERE DIGITALI
83
Scanner a ripresa in piano
83
Scanner a rullo
84
Scanner a tamburo
84
Scanner su stativo
84
Scanner manuale
84
5
Caratteristiche tecniche degli scanner
85
Consigli per l’uso degli scanner
86
La fotocamere digitali
87
I dorsi digitali
88
LA RETE LOCALE
89
Software di rete
90
Caratteristiche tecniche
90
Localizzazione delle postazioni
90
Topologia
91
Metodologia
91
Tecnologia
92
Protocollo
92
Sistema operativo di rete
92
Componenti della rete
93
Considerazioni finali
95
6
L’informatica nell’era del personal
L’informatica è la scienza dell’informazione. Ma nessuna definizione è, oggi, più lontana ed
insieme più vicina di questa.
Più vicina perché al suo centro si trova effettivamente l’informazione, non più concentrata in
grosse quantità e dispersa in pochi grandi elaboratori, ma diffusa in centinaia di milioni di
piccoli computer. Ogni personal ha la sua quantità di informazioni locali, quelle che il suo
utilizzatore vi introduce, e può attingere al complesso delle informazioni, siano esse a livello
aziendale tramite la rete locale che connette i singoli personal fino a formare una entità
unica, siano esse a livello mondiale grazie ai servizi telematici disponibili sempre ed
ovunque.
Più lontana perché della scienza ha perso tutta la struttura complessa e da iniziati che
l’aveva permeata sin dall’inizio. Grazie ai nuovi sistemi operativi, chiunque può avvicinarsi
ad un personal ed iniziare ad usarlo senza dover assistere a corsi introduttivi o seminari di
informatica, senza imparare linguaggi di programmazione, senza dover ricorrere a manuali
di centinaia di pagine.
E’ sufficiente il manuale che è a corredo della macchina e quello a corredo di ciascun
programma. Spesso, nel caso di sistemi operativi di tipo grafico, anche quelli sono quasi
superflui, a meno che non si tratti di programmi altamente specializzati.
La gran parte dei programmi attualmente commercializzati per i personal è stata realizzata
con una filosofia “user friendly”, cioè amichevole per l’utilizzatore. Tutti i comandi disponibili
vengono visualizzati sullo schermo, con evidenziati i tasti che li mettono in opera. I comandi,
la loro struttura e, soprattutto, la loro logica di funzionamento sono comuni fra i diversi
programmi. Passare da uno all’altro, per scrivere una lettera o per aggiornare una situazione
fiscale, non provoca più il disorientamento e gli errori di una volta.
Un personal su ogni scrivania
“Un personal su ogni scrivania”: è questo un sogno che solo 15 anni fa apparteneva ad uno
sparuto gruppo di programmatori statunitensi. Si riunivano in club per discuterne, dopo il
lavoro o dopo lo studio, e per scambiarsi le ultime esperienze.
Alcuni di loro lavoravano in grandi aziende ai progetti per grandi elaboratori per centri
calcolo, mentre a casa armeggiavano intorno ad un piccolo computer costruito da loro stessi
con materiale trovato nei negozi di componenti elettronici di seconda mano. Alcune volte il
piccolo elaboratore, senza alcuna possibilità di utilizzazione pratica, veniva costruito in
qualche diecina di esemplari e venduto agli amici per pochi dollari.
Nel giro di pochi anni, alcuni di questi appassionati sono diventati proprietari di aziende
informatiche che hanno succursali, stabilimenti di produzione ed uffici commerciali in tutto il
mondo. Il personal computer si è rivelato uno dei settori industriali più vitali, in più rapida
espansione ed evoluzione, in eccezionale rinnovamento tecnologico.
Tuttavia nella visione di questi giovani appassionati non c’era solamente una prospettiva
commerciale. Anzi, nella maggior parte dei casi l’idea di diventare ricchi era del tutto
impensabile: la loro spinta ideale non era inferiore a quella di tanti loro coetanei dell’epoca
che cercavano di cambiare il mondo.
Era però una visione molto particolare. “Un personal su ogni scrivania” era uno slogan che
non si collegava al fatturato industriale di una azienda produttrice di computer, bensì alla
possibilità, per ciascuno, di utilizzare la potenza eccezionale di un computer nell’archiviare,
rintracciare, elaborare le informazioni. In un mondo nel quale chiunque avrebbe potuto
accedere a tutti i dati, a tutte le notizie, a tutte le informazioni esistenti, scambiarle via
telefono con chiunque altro al mondo, far circolare istantaneamente ed in modo inarrestabile
idee ed opinioni, nessun governo avrebbe potuto opprimere o ridurre le libertà.
Il pericolo che questi appassionati vivevano come ossessione, era costituito dalle grandi
aziende che, in poche, avevano il monopolio dell’informatica. L’incubo era lo spettro di
grossi elaboratori, contenenti informazioni riguardanti la vita privata dei cittadini, gestiti dai
servizi segreti. Avevano capito che l’informazione, nel mondo moderno, è potere. Lasciarla
concentrata in mano ad industriali, politici e militari, voleva dire lasciargli un immenso potere.
7
Dopo pochi anni il sogno si è avverato, e si è trasformato in un grande affare da migliaia di
miliardi di dollari.
Ironia della sorte, ne hanno tratto un grandissimo vantaggio quelle stesse grandi aziende
informatiche costruttrici dei grandi elaboratori elettronici che facevano così tanta paura. Gli
stessi piccoli laboratori, impiantati nei garage, sono diventati aziende multinazionali. Molti di
quegli idealisti di 20 anni fa, ora sono multimiliardari e dedicano parte del loro tempo, o vi
hanno dedicato la vita abbandonando il lavoro, ad attività benefiche ed a fondazioni a scopi
sociali.
Struttura logica e fisica dell’informazione
Esistono, tuttavia, alcuni concetti base, in comune con la tradizionale scienza informatica, da
chiarire innanzi tutto.
Nei computer abbiamo due tipi di informazione: il programma (o applicativo) e l’archivio
di dati (o file).
Il programma è costituito da una serie di codici di comando, scritti in un linguaggio che il
computer sia in grado di comprendere. Il linguaggio di programmazione è altamente
sintetico e complesso, ed utilizza le capacità elaborative del computer.
Questo, da parte sua, deve poter comprendere il linguaggio, interpretare ed eseguire i codici
di comando, quindi proseguire nel programma.
Un file è il risultato del lavoro compiuto dall’utente con un programma. L’unità più piccola
dell’archivio è il singolo carattere, lettera, numero e segno che sia. L’archivio, con tutto
l’insieme dei dati che contiene, non è utilizzabile di per se stesso, se non tramite la presenza
di un programma. L’archivio può essere di grosse dimensioni, come la banca dati fiscale sui
contribuenti italiani, oppure piccola, come la lettera scritta ad un amico.
Questa è la struttura logica dell’informazione, la struttura fisica è invece ben diversa e si
basa sulla natura dell’elettromagnetismo.
Lo stato elettromagnetico della materia può essere solamente positivo o negativo. In certe
sostanze questo stato può essere facilmente alterato, ma una volta stabilito viene
conservato inalterato finché non viene di nuovo mutato da una forza esterna.
L’esistenza dell’informatica è dovuta alla concezione della matematica binaria, per la quale
non esistono dieci numeri, ma due soli: lo zero e l’uno.
Prendiamo alcune porzioni di materia magnetizzabile ed in alcune ne cambiamo lo stato
elettromagnetico in positivo, mentre altre le rendiamo negative. Accettiamo di definire lo
stato positivo come un 1, e quello negativo con uno 0. Ecco che possiamo esaminare la
materia e ricavare degli 1, da quelle porzioni che abbiamo risultano positive, e degli 0, da
quelle che risultano negative.
L’informatica degli albori era proprio così: i computer erano costituiti da gigantesche griglie
di anelli metallici collegati da fili. Alcuni erano magnetizzati ed altri no, e la diversa
successione di polarizzazioni dava origine a lunghe sequenze di 0 ed 1 che
rappresentavano i dati.
La forza che magnetizzava gli anelli metallici era il flusso di elettroni dell’energia elettrica; le
diverse polarizzazioni degli anelli erano rivelati dal flusso di elettroni che la polarizzazione
negativa emette e quella negativa no. Tuttavia la polarizzazione degli anelli non era
permanente: esistevano apposite schede, in cartone, nelle quali venivano praticati dei fori
che rappresentavano gli anelli da magnetizzare, chiamate schede perforate.
La grande rivoluzione dell’informatica, che ha portato alla potenza attuale degli elaboratori, è
dovuta al rapido progresso tecnologico.
Da una parte gli anelli metallici sono stati sostituiti da speciali sostanze chiamate
semiconduttori, che permettono di realizzare con le singole molecole quel meccanismo di
cariche negative e positive che era realizzato con gli anelli.
I vecchi giganteschi circuiti sono ora diventati sottili lamine visibili solo al microscopio,
aumentando in proporzione la quantità di dati che è possibile elaborare. Questi componenti
sono chiamati chip, proprio per essere composti di sottili sfoglie di semiconduttori.
Dall’altra parte la messa a punto della registrazione magnetica ha permesso di conservare i
dati direttamente in forma magnetica, consentendo una maggiore capacità di archiviazione e
soprattutto l’immediatezza nella fasi di registrazione e di lettura. Una speciale sostanza, le
cui molecole conservano la polarizzazione, è stesa su una superficie costituita da un nastro
8
o da un disco. In fase di registrazione una testina elettromagnetica emette un campo
elettromagnetico per modificarne la polarizzazione, in fase di lettura è la stessa testina che
ne percepisce la polarizzazione.
Tuttavia, anche se sono cambiate le dimensioni e le capacità di elaborazione, la struttura
fisica delle informazioni è sempre costituita da cariche negative e positive, da 0 ed 1.
L’interpretazione binaria
Se le informazioni sono composte da tanti 0 ed 1, manca ancora un passo per arrivare ai
programmi ed agli archivi di dati.
E’ stata una convenzione accettata da tutti quella di attribuire un segno di 0 od 1 alla carica
magnetica di polarizzazione, un’altra convenzione è necessaria perché queste serie di 0 ed
1 acquistino un senso.
Nella matematica binaria, ad esempio, gli 0 ed 1 hanno una volare non in se stessi, ma in
corrispondenza della loro posto nella serie.
Prendiamo una serie di otto cifre binarie. Gli 0 valgono sempre 0. Gli 1 hanno un valore a
seconda della loro posizione. Al primo posto ha valore 1, al secondo 2, al terzo 4, al quarto
8, al quinto 16, al sesto 32, al settimo 64 ed all’ottavo 128. Se sono presenti più 1 in
posizioni diverse, i loro valori si sommano.
Se la serie vede un solo 1 al primo posto, il valore totale è 1. Se c’è un 1 al secondo ed al
terzo posto, il valore è 6 (2+4). Se c’è un uno al primo, al secondo ed al terzo posto, il valore
è 7 (1+2+4). Se la serie è composta da tutti 1, il suo valore è 255
(1+2+4+8+16+32+64+128). Se comprendiamo anche il valore 0 di una serie senza alcun 1,
abbiamo un totale di 256 valori.
La convenzione che dobbiamo accettare è la rappresentazione, per ciascuna dei 256 valori,
di una lettera, di una cifra, di un simbolo o di un codice. Le attribuzioni dei primi 128 valori
sono stabilite da un codice valido per tutti i computer, l’American Standard Code for
Information Interchange, chiamato ASCII, mentre i successivi 128 sono lasciati alla
definizione del singolo sistema operativo.
Nel codice ASCII, ad esempio, la lettera A maiuscola è rappresentata dal valore 65 (cifra
binaria 10000010=1+64), la B dal valore 66 (01000010), la C dal valore 67 (11000010). Il
numero 0 è attribuito al valore 48 (00001100), il numero 2 al valore 49 (10001100). La
virgola è rappresentata dal valore binario 44, il punto dal valore 46 e così via.
I valori superiori al 128 rappresentano lettere o simboli speciali, come le lettere accentate o i
caratteri grafici. Le attribuzioni di questi valori cambiano anche per permettere alle diverse
entità linguistiche di inserire le proprie particolarità.
Bit e byte
Nel gergo informatico la singola cifra binaria, di valore 0 od 1, viene chiamata bit. La serie di
otto cifre binarie, quindi di otto bit, che da origine ai 256 valori, viene chiamata byte. Un bit
può valere 0 od 1, mentre un byte può valere da 0 a 255.
Come si è visto dal codice ASCII, ogni lettera, numero o simbolo viene rappresentata da un
singolo byte.
Tutte le informazioni, sia i dati che i programmi, vengono registrati, letti ed elaborati, sotto
forma di byte. E’ questa la più piccola entità informatica, pur essendo anch’essa suddivisa in
otto bit, cioè in otto impulsi magnetici.
Ma la complicazione si espande ulteriormente quando si legge che alcuni computer lavorano
a 8 bit, altri a 16, altri a 32. Si vuole semplicemente dire che il computer può considerare sia
dati formati dal singolo byte, sia dati più grandi.
In molti campi la limitazione a 256 valori non era sufficiente. Ad esempio nella grafica a
colori. Assegnando un colore a ciascun byte si ottengono solo 256 colori, molto al di sotto
delle esigenze grafiche professionali. Un computer che lavori con una scheda grafica a 24
bit è in grado di considerare gruppi di 24 bit come se fossero un valore unico, ottenendo così
16’777’216 colori diversi. In realtà i 24 bit formano tre byte, ma ciò vale solo per la struttura
dell’archivio nel quale i dati vengono conservati. I tre byte, una volta letti dalla testina,
diventano un solo valore ed un solo colore.
9
Ecco le definizioni di bit e byte:
Bit
Byte
word
address
long
word
elemento base binario: è uno 0 od un 1
otto bit formano un byte, quindi otto elementi binari: da 00000000 a
11111111, valori binari che esprimono 256 numeri decimali
due byte, quindi 16 bit, formano una word. Composta da 16 elementi binari,
rappresenta 65’536 numeri decimali
tre byte, quindi 24 bit, formano un address. Composto da 24 elementi binari,
rappresenta 16’777’216 numeri decimali
quattro byte, quindi 32 bit, formano una long word. Composta da 32 elementi
binari, rappresenta 4’294’967’296 numeri decimali
Tutte queste definizioni possono essere immediatamente dimenticate, visto che nessun
utilizzatore di personal dovrà mai effettuare calcoli binari. Sono state qui riportate solo per
comprendere la struttura fisica delle informazioni e per evidenziare la differenza fra 8 bit e
32 bit.
Essendo quella binaria una matematica che opera in modo diverso dalla normale
matematica decimale, 32 bit non sono quattro volte più di 8 bit, bensì 16’777’216 volte di più.
Byte, Kilobyte e Megabyte
Questo per quanto riguarda la composizione dei dati. La dimensione degli archivi
viene, invece, misurata con altre unità di misura.
Si parte sempre dal singolo byte, formato da otto bit. Il multiplo superiore, nella
scala di misura, è il Kilobyte, ovvero un byte moltiplicato per mille. Ma poiché i dati
devono sempre essere registrati, letti ed elaborati per multipli di otto, un Kilobyte è
composto da 1.024 bytes. Si abbrevia in Kb.
Il multiplo ancora superiore è il Megabyte, pari a 1.024Kb. Si abbrevia in Mb ed
equivale ad un milione di byte, anzi a 1.048.576 byte.
Si sale poi al Gigabyte, pari a 1.024Mb, cioè a 1.048.576Kb, oltre un miliardo di
byte, abbreviato in Gb.
Questa scala di misura serve a definire la capacità di memoria di un computer, di
archiviazione di un disco, di lunghezza di un documento o di un archivio.
La memoria attuale dei personal computer oscilla fra 1 ed 8 Megabyte, con
possibilità di ulteriore espansione. La capacità di un dischetto si misura in qualche
centinaia di Kilobyte, quella di un disco rigido in decine o centinaia di Megabyte.
byte
Kilobyte
Megabyte
Gigabyte
Kb
Mb
Gb
Kb
1.024
1.048.576
1.073.741.824
Mb
1
1.024
1.048.576
1
1.024
10
La rappresentazione esadecimale
Vengono citati spesso, nell’informatica, i numeri esadecimali. In realtà i computer lavorano
esclusivamente in numeri binari. Per comodità i programmatori usano rappresentare sia i
numeri decimali (con 10 cifre) che i numeri binari (con due cifre) con numeri esadecimali.
Questi hanno sedici cifre: le dieci cifre da 0 a 9 e quindi le sei lettere da A a F. Lo 0
esadecimale equivale al valore decimale 1 mentre la F esadecimale equivale al valore
decimale 16.
L’avere inventato una rappresentazione dei numeri usando 16 cifre, rende i numeri più
compatti. Già il numero decimale 100, rappresentato dal binario 0010110, in esadecimale è
64.
Dal punto di vista dell’utente, ciò non ha alcuna rilevanza.
L’informatica nell’era del personal è molto più semplice e pratica. Del resto, lo scopo degli
inventori del personal non era di portare l’informatica a tutti, ma di portare le informazioni a
tutti.
11
Il personal computer
Esistono tipi diversi di personal computer, ed ognuno risponde ad una diversa esigenza di
lavoro:
•
desktop
•
portatili
•
notebook
•
penbook
•
palmtop
Desktop
I computer desktop sono i classici personal, che trovano posto sopra una scrivania e che
sono utilizzati nell’ordinario lavoro. Sono formati da una unità centrale, delle periferiche
aggiuntive, solitamente tastiera, mouse e monitor, e da una serie di dispositivi come
stampanti, lettori di Compact Disc, plotter, modem. Queste ultime sono attrezzature
addizionali, aggiungibili secondo le esigenze. Sono periferiche di Input e di Output.
Le periferiche di Input sono quelle periferiche che permettono di inserire dei dati all’interno
del computer (tastiera e mouse, ma anche scanner, webcam, fotocamere, microfoni).
Le periferiche di output sono quelle periferiche che permettono di ottenere i risultati
dell’elaborazione del computer, cioè monitor, stampanti, casse audio, proiettori…
L’unità centrale si presenta quasi sempre come un parallelepipedo di colore chiaro, con
qualche lucetta di segnalazione e tante fessure per la scambio dell’aria. Sul retro, in genere,
vi sono delle viti o dei ganci che permettono di sollevarne il coperchio.
A patto che la spina, per prudenza, sia staccata, possiamo aprire l’unità centrale. Il
parallelepipedo si rivela essere vuoto almeno per metà del volume. Esaminiamo gli elementi
che vi troviamo.
In un angolo, in corrispondenza con la presa di alimentazione, c’è il trasformatore. Il
computer consuma pochissima energia elettrica, ed a basso voltaggio. Il trasformatore è
racchiuso in una gabbia di metallo.
Accanto troviamo il drive per i dischetti rimovibili in corrispondenza della fessura per inserirli
e, sotto o di fianco, il disco rigido. Anche essi sono spesso rivestiti da un guscio di metallo.
Sotto a tutto, coprendone l’intera estensione, un circuito stampato con numerosi componenti
elettronici: è l’elemento più importante del computer e si chiama scheda madre.
Direttamente saldati sulla scheda madre, oppure inseriti in essa, troviamo:
•
microprocessore
•
clock
•
memoria RAM
•
interfaccia grafica per il video
•
una o più interfacce per il collegamento delle periferiche
•
connettori, chiamati slot, per l’inserimento di schede aggiuntive
12
Sul retro dell’unità centrale abbiamo una serie di connettori, per il video, la tastiera, per
periferiche come stampanti o mouse. Abbiamo anche alcuni spazi vuoti per inserire altri
connettori.
All’unità centrale vengono collegati tutti gli altri elementi del computer, comprese tutte le
periferiche successivamente aggiunte.
Il desktop è il computer ideale per il quotidiano lavoro d’ufficio. Lo rendono tale la grandezza
e la leggibilità del monitor, la capacità di espansione di memoria fino a molti Megabyte e la
possibilità di ospitare unità di registrazione dalle capacità ingenti. La presenza di numerosi
connettori lo rende disponibile al lavoro con apparecchiature periferiche esterne sia come
gestore delle stesse che come raccoglitore dei dati.
Portatili
I computer portatili sono molto più compatti. La caratteristica essenziale è quella di riunire in
un solo corpo sia la scheda madre che l’unità a dischi, sia la tastiera che il video.
Quest’ultimo è di tipo speciale, generalmente a cristalli liquidi, ma comunque di ridottissimo
ingombro.
Altra particolarità del computer portatile è quella di avere un accumulatore interno che
consente di lavorare in modo autonomo, senza necessità di allacciarsi alla rete elettrica.
Naturalmente questo accumulatore ha una durata limitata, il cui periodo di tempo è
determinato, più che dall’accumulatore stesso, dai risparmi di consumo che i circuiti del
personal consentono. Una buona ingegnerizzazione dei circuiti e l’uso di componenti a
basso consumo, possono consentire un uso anche di alcune ore.
Il computer è dotato di un coperchio, aprendo il quale appaiono lo schermo, sul retro del
coperchio, e la tastiera. Anch’essa è sacrificata, spesso i tasti sono piccoli e manca il
tastierino numerico.
All’interno del computer, la scheda madre è affollatissima, e lo spazio per schede aggiuntive
è limitato o inesistente. I connettori esterni sono limitati a quelli strettamente necessari,
anche se alcuni portatili sono dotati di una presa del segnale video per poter collegare un
monitor normale esterno.
Esternamente, chiuso, un computer portatile somiglia ad una macchina da scrivere portatile,
compresa la maniglia estraibile. Il suo peso si aggira sui 6 chili.
Ha rappresentato una svolta nel personal, in quanto l’ha reso effettivamente trasportabile.
Dotato di disco rigido, il portatile può realmente costituire un pezzo di ufficio che ci segue.
L’autonomia, pure se limitata nel tempo, rende possibile il lavoro in qualsiasi ambiente. E’
frequente vedere computer portatili nelle sale di attesa degli aeroporti, sia nazionali che
internazionali, anche se in realtà l’uso a bordo sarebbe vietato dalle norme internazionali di
volo e, comunque, nessun portatile è in grado di lavorare per tutta la durata di un volo
dall’Italia agli USA.
I portatili sono utili anche per chi, professionalmente, deve svolgere parte del lavoro fuori del
proprio ufficio. Grazie al portatile ingegneri, giornalisti, avvocati e rappresentanti di
commercio possono utilizzare il computer in ogni occasione.
Notebook
Come dice il nome, questi computer hanno la stessa grandezza di un blocco note: 21
centimetri per 30. Ma non la stessa funzione, infatti sono computer personal a tutti gli effetti
e sono in grado di eseguire tutti i programmi dei computer desktop o portatili.
Alcuni modelli sono privi del disk drive per dischetti, e lo scambio di dati con un altro
computer può essere effettuato esclusivamente tramite cavo.
Lo schermo è identico a quello dei portatili, ma tutto il resto è di dimensioni ancora più
ridotte. La tastiera è priva del tastierino numerico: questo può essere attivato all’interno della
stessa tastiera tramite uno speciale tasto.
Nel lavorare con un notebook si devono accettare dei compromessi con la comodità, ma in
cambio la praticità di questi computer è eccezionale. Piccoli, dal peso di circa 3 chili,
possono essere portati comodamente in una valigetta 24 ore od anche in una cartella
portadocumenti.
13
Pen book
Un penbook è un notebook senza tastiera. E’ dotato di speciali programmi che ne
permettono l’uso grazie ad un apposito stilo a forma di penna.
La penna non è utilizzata solamente per impartire comandi ai programmi, a somiglianza di
quanto si può fare con il mouse dei desktop, ma anche per inserire dati. Sullo schermo del
penbook si può scrivere, esattamente come su un foglio di carta, ed il computer interpreta la
scrittura e la converte in caratteri di testo come se fossero digitati con la tastiera.
Si tratta di un tipo di computer ancora in evoluzione. I sistemi operativi sono in via
sperimentale, così come i programmi. La fase di interpretazione della scrittura manuale è
ancora alquanto lenta e soggetta ad errori, mentre altri aspetti del funzionamento sono più
avanzati.
Ad esempio, la correzione e la modifica del testo già inserito avviene con modalità molto
innovative e molto simili al comportamento istintivo dell’utilizzatore. Se una parola deve
essere cancellata, basta tracciarvi sopra una croce con la penna. Per inserire una parola od
un carattere, basta tracciare una barra nel punto esatto. Per cambiare “male” in “mele” si
deve tracciare una croce sulla “a” e quindi scrivervi sopra la “e”.
Palmtop
Il palmtop è un computer grande quanto una videocassetta.
Non bisogna confondere il palmtop con le agende o le calcolatrici tascabili. Sia le prime che
le seconde possono, in alcuni casi, scambiare dati con un personal, ma non sono dotati né
di sistema operativo né di programmi standard.
Il palmtop è un computer a tutti gli effetti. Non effettua calcoli o gestisce agende se non con
un programma apposito, mentre può elaborare o modificare documenti esattamente come
una desktop.
Le dimensioni ridottissime si ripercuotono su tutte le parti del computer. Lo schermo a
cristalli liquidi è ridottissimo, così anche la tastiera, i cui tasti sono minuscoli. Il disco rigido è
del tutto assente, e la registrazione dei dati avviene grazie a memorie contenute in schedine
autoalimentate. Lo scambio di dati con un desktop è possibile solamente attraverso un cavo.
Il palmtop non serve certo come strumento principale di lavoro. Può essere utilizzato per la
consultazione di dati, o l’aggiornamento degli stessi. Si possono stilare alcune annotazioni,
ma scrivere una lettera diventa quasi impossibile e molto faticoso a causa delle dimensioni
dei tasti.
Gli altri computer
Il personal computer ha anche dei fratelli maggiori:
•
workstation
•
minicomputer
•
mainframe
•
supercomputer
Le workstation sono computer di uso individuale, dalle dimensioni e dell’aspetto di un
desktop o poco più grandi. Sono dotati di processori più evoluti, di maggiore capacità di
memoria e di archiviazione .
Le workstation sono adatte a svolgere compiti specializzati, spesso nel campo della grafica,
della progettazione, del disegno tecnico, dell’ingegneria. Si tratta di applicazioni complesse,
che richiedono una potenza ed una velocità che sarebbero sproporzionate per il normale
lavoro d’ufficio. Il costo di queste macchine, d’altronde, è molto superiore a quello dei
personal.
I minicomputer sono elaboratori ancora più potenti. Essi sono posti al centro di una rete di
terminali, ognuno dei quali lavora con il minicomputer come se fosse un computer isolato,
14
ma condividendo sia i dati che le apparecchiature di stampa, che gli stessi programmi.
Tipica dei minicomputer, infatti, è la possibilità di avere un solo programma che viene
utilizzato in contemporanea da più terminali. Sono elaboratori particolarmente utilizzati in
ambito amministrativo aziendale, dove la condivisione dei programmi e dei dati è un fattore
essenziale: tutti possono lavorare con le stesse procedure ed i dati possono essere
aggiornati in tempo reale.
I mainframe sono su un gradino ancora superiore. Questi elaboratori possono essere
utilizzati da moltissimi terminali, anche a distanza tramite collegamenti telematici. Possono
conservare numerosi archivi di dati e mandare in esecuzione molti programmi
contemporaneamente.
Sono utilizzati nell’ambito di grosse aziende per la gestione industriale vera e propria od in
organismi statali per l’elaborazioni di grossi archivi di dati sempre in evoluzione.
Costituiscono il nucleo centrale dei servizi informativi delle banche, degli istituti finanziari e
delle borse. Sono anche impiegati dai servizi telematici pubblici e privati perché permettono
il collegamento contemporaneo di molti terminali o computer e l’esecuzione veloce delle
rispettive transazioni.
I supercomputer sono abbastanza rari. Il loro costo è molto alto e vengono utilizzati nella
progettazione industriale e nell’elaborazione di dati ad altissimo livello. Oltre alle
multinazionali, i supercomputer sono impiegati da organismi statali ed organizzazioni militari.
Hardware e software
Altre definizioni sono molto comuni:
•
hardware
•
software
L’hardware è costituito da tutte le componenti materiali del computer. E’ la parte fisicamente
esistente, dall’unità centrale al monitor, dalla tastiera all’alimentatore, al disco, ai
microprocessori, ai chip di memoria.
Il software è composto dai programmi che fanno lavorare il computer. Una piccola parte di
questo è già compreso in alcune memorie all’interno del computer, e viene chiamato
firmware. Tutto il restante è registrato su disco e viene letto e caricato in memoria dal
computer per essere eseguito.
15
Come scegliere un personal computer
Quello che il computer deve fare, è di risolvere i vostri problemi, soddisfare le vostre necessità e
migliorare i vostri risultati. Il che vuol dire, in sintesi, rendere più piacevole la vita e lo stesso lavoro.
Il computer non deve essere una complicazione in più in un lavoro già complicato. Deve sciogliere i
nodi organizzativi, deve rendere migliore lo scambio di informazioni, più veloce il disbrigo della
routine. Il computer è la soluzione ideale dove vi sia una grande quantità di dati da gestire, dove il
lavoro debba essere veloce ed accurato, dove le procedure sono ripetitive.
Esaminiamo la situazione:
•
pensate che il vostro lavoro migliorerebbe con un computer?
•
quello che vi farà guadagnare è superiore alla spesa che affronterete?
Ammettiamo che abbiate dato una doppia risposta positiva, considerando anche che vi sono
guadagni non immediatamente percepibili, come una maggiore efficienza ed accuratezza
nel lavoro o il tempo risparmiato. Nei costi, però, vanno considerati i materiali di consumo
come i dischi, i nastri od i toner per le stampanti.
Passiamo a porci altri interrogativi:
- il computer deve svolgere un compito ben preciso oppure deve essere adatto a più
applicazioni?
Di solito un computer viene acquistato già con un obiettivo ben preciso, come tenere la
contabilità, oppure in sostituzione della macchina da scrivere. In questo caso è necessario
commisurare bene le caratteristiche del computer da acquistare alle reali necessità. Inutile
farsi affascinare dalle possibilità grafiche di una potente scheda video quando il lavoro
principale consiste nell’immettere i dati di fatturazione. Oppure il contrario: acquistare, per
realizzare comunicati stampa, un computer che è incapace di lavorare con complesse
impaginazioni di testo ed immagini.
Questo interrogativo coinvolge la scelta di un computer secondo il suo microprocessore, la
scheda video, la velocità.
- quali sono le necessità di elaborazione e di archiviazione?
In parole povere: qual’è la dimensione dell’archivio di dati che volete gestire e, dato ben
diverso, quanti di questi dati devono essere elaborati con una stessa operazione? La
grandezza totale dell’archivio coinvolge la scelta delle dimensioni del disco rigido interno al
computer, la quantità di dati da elaborare coinvolge il microprocessore, la velocità, la
configurazione di memoria.
Archivio totale e dati da elaborare sono due entità differenti. E’ ben più semplice cercare il
nome “Baldovinetti” fra diecimila nominativi, che selezionare fra cinquemila ragioni sociali
tutte le ditte che abbiano fatturato superiore a 100 milioni, che producano estintori, che siano
in provincia di Milano e quindi disporle in ordine di Codice di Avviamento Postale. Nel primo
caso l’archivio è più grande, ma la ricerca richiede meno elaborazione; nel secondo
l’archivio è più piccolo, ma la ricerca coinvolge molti parametri da considerare
contemporaneamente. Nel secondo caso la richiesta di memoria e di velocità sarà molto
maggiore.
- quali sono le necessità di accesso ai dati?
Si deve stabilire se i dati possono risiedere in archivi separati o devono essere sempre
facilmente accessibili. Certi dati hanno una scadenza determinata, come le registrazioni
fiscali, che possono essere conservare a parte anno per anno e ben raramente dovranno
essere consultate.
Questo interrogativo coinvolge il tipo e la dimensione del disco rigido, oltre al tipo di
dispositivo utilizzato per la registrazione delle copie degli archivi. Può rendersi necessario
l’installazione di un dispositivo di memoria di massa di grandi dimensioni, come un lettore di
dischi ottici.
16
- quali sono le necessità di uscita dei dati?
Potrebbe essere necessaria la stampa in modo accurato, oppure semplicemente delle
stampe di bassa qualità. Può essere necessario elaborare i dati in forma grafica, a colori, e
realizzare diapositive o lucidi per proiezioni. Queste esigenze influiscono sulla scelta delle
periferiche di stampa e sulla capacità del computer di gestirle correttamente.
- è necessaria la condivisione di dati con altri computer?
Se le postazioni di lavoro sono più di una, potrebbe agevolare molto il lavoro di tutti se
l’archivio principale fosse in comune, accessibile e modificabile contemporaneamente.
Questa scelta coinvolge la creazione di una struttura in rete, con consequenti scelte sulla
configurazione di memoria e sulla velocità dei computer.
- come avviene l’introduzione dei dati?
I dati possono essere introdotti tramite tastiera, oppure tramite penna ottica, tramite
collegamento telematico, tramite Compact Disc, tramite dischetti. La tastiera è in dotazione
ad ogni computer, ma gli altri dispositivi richiedono installazioni particolari. Sono sufficienti i
connettori interni per le schede di interfaccia? La velocità del computer è sufficiente? Nel
caso che ci si aspetti un ingresso di dati tramite dischetti, sarà necessario procurarci il giusto
disk drive per tutti i formati di disco più comuni.
- chi è l’utilizzatore del computer?
Possiamo distinguere fra utilizzatore esperto, regolare o casuale. Mentre il primo può essere
in grado di usare qualsiasi tipo di computer, il secondo ma soprattutto il terzo hanno bisogno
di un computer che abbia un sistema operativo e dei programmi che richiedano un minimo
addestramento. Acquista maggiore importanza il servizio che il rivenditore è in grado di
fornire. Può effettuare tutta l’installazione ed il collaudo? Può tenere un breve corso? Può
seguire il lavoro nei primi mesi? Può effettuare rapidamente la diagnosi dei
malfunzionamenti ed identificare le cause in modo da evitare lunghi immobilizzi della
macchina non dovuti a veri e propri guasti?
Qualora non vi sia un utente esperto, questo tipo di servizi devono diventare parte
essenziale nella scelte di un computer.
- cosa succederebbe se il lavoro del computer venisse improvvisamente interrotto?
Pur senza essere pessimisti ad oltranza, bisogna sempre considerare l’eventualità di un
guasto od un incidente al computer, al disco, al monitor o ad una periferica. Se il lavoro che
il computer svolge è di importanza vitale, è necessario che i dati non risiedano in un solo
disco ma che si effettuino regolari e frequenti copie di riserva e che queste vengano
conservate in un luogo sicuro.
Ciò coinvolge l’acquisto di apposite unità di registrazione a nastro, di eventuali doppie
periferiche o di un secondo computer dalle prestazioni inferiori a quello principale ma in
grado di sostituirlo per breve tempo.
- cosa succederebbe se i dati dell’archivio fossero distrutti, alterati o rubati?
Si profila qui l’ipotesi di un intervento doloso. Esistono strumenti per evitarlo, anche se non
del tutto. La perdita dell’archivio, ad esempio, può essere evitata dall’installazione di una
particolare scheda che effettua una copia compressa di tutti i documenti su un disco rigido
supplementare.
Questo interrogativo può interessare pochi casi, ma in quelli è importantissimo. E’ anche
importante non sopravvalutare questa minaccia, per evitare rallentamenti ed ostacoli nel
lavoro quotidiano o che le stesse precauzioni si rivelino controproducenti.
Ora, avendo elencato una serie di necessità, è possibile recarsi in un negozio e chiedere un
computer con caratteristiche ben precise. Non è per cattiva volontà o per malizia da parte
del negoziante se a volte l’acquirente è scontento dell’investimento effettuato. Spesso ciò si
verifica perché l’acquirente stesso non sapeva quello di cui aveva bisogno.
17
La casistica degli acquisti errati vede:
•
computer sottodimensionato rispetto al lavoro da svolgere e quindi nell’impossibilità
di portarlo a termine;
•
computer sovradimensionato e quindi sottoutilizzato;
•
computer in configurazione errata, che rende impossibile o disagevole il lavoro;
•
periferiche inadeguate alle necessità, che ostacolano il lavoro;
•
computer inutilizzato, perché non ve ne era l’effettiva esigenza.
Oltre alla necessità di provvedere ad un nuovo acquisto, devono essere considerati i danni
diretti ed indiretti che che l’errato acquisto ha provocato. La perdita di tempo, ad esempio,
ma soprattutto l’eventuale discredito procurato dai ritardi e dalle inadempienze.
18
L'organizzazione delle informazioni
Dopo i primi anni del personal computer, nel quale scarseggiava sia la memoria che lo
spazio su disco, con l'avvento dei dischi rigidi ad alta capacità e delle memorie RAM a prezzi
contenuti, la quantità delle informazioni che un computer può archiviare ed elaborare è
cresciuta a dismisura.
I primi personal professionali venivano venduti con una RAM di 128Kb ed utilizzavano
dischetti da 160Kb, ma fra le macchine hobbystiche non erano rari i 32Kb od i 64Kb di RAM
e l'archiviazione su audiocassette. Oggi in campo aziendale si parla comunemente di
macchine con 4Mb, 8Mb o 32Mb di RAM, di dischi rigidi di 160Mb, 320Mb o 640Mb. Ma
anche un ordinario disco rigido da 40Mb contiene tanti dati quanti ne potrebbero contenere
250 dischetti da 160Kb.
Ecco che si pone il problema di come fare in modo che un nostro documento, magari
vecchio di qualche mese, all'improvviso diventato importante, urgente da rintracciare, sia
disperso in mezzo ad una mole di migliaia di altri documenti. I primi sistemi operativi
registravano i file tutti insieme. Dando il comando che elencava il contenuto del disco, ecco
che apparivano sullo schermo dieci, venti, trenta... cinquanta o sessanta file.
Fin qui niente di male, a patto di avere un po' di pazienza. Ma quando sono arrivati i
dischetti da 720Kb o da 800Kb e la tecnologia ha permesso di costruire dischi rigidi da 10Mb
che costavano le metà di quelli da 5Mb, i sistemi operativi sono stati aggiornati con quello
che venne chiamato Hierarchical File System, cioè un sistema gerarchico che permettesse
di creare una struttura dei dati registrati su disco, di organizzarli in modo logico e,
soprattutto, di poterli rintracciare facilmente.
Facciamo un salto indietro di qualche anno. Dobbiamo immaginare il disco rigido del nostro
computer come uno di quei vecchi armadi che fungevano da archivio negli scantinati degli
uffici pubblici. Decine e decine di metri di scaffalature alte fino al soffitto. Su ogni scaffalatura
una serie di cartelle con il laccio, all'interno delle quali sono strette un certo numero di
cartelline in cartoncino e dentro a queste ultime sono conservati i documenti.
Come fare per ritrovare la lettera inviata al signor Gualtiero Rossi della omonima ditta?
Semplice. L'usciere consulta il suo schedario e vi da le indicazioni giuste: andare alla fila M,
trovare il settore 13, salire al ripiano 5, aprire la cartella "M/13/5/10", prendere la cartellina
con sopra scritto "Pratica Ditta Rossi Gualtiero", aprirla e leggere la lettera siglata
"M/13/5/10/prot. Rossi/75A".
Senza l'usciere e senza il suo schedario, l'esito della ricerca sarebbe stato probabilmente
negativo, oltre a farci sprecare un considerevole periodo di tempo a cercare su scaffali
impolveratissimi. Se poi non si fosse nemmeno usato un sistema di numerazione per le file, i
settori, i ripiani e le cartelle, sarebbe stata certamente un'impresa vana.
Il sistema operativo è un usciere sempre efficiente, mentre lo schedario infallibile è ll nostro
stesso disco il quale contiene, non solo i dati, ma anche il loro elenco.
I diversi sistemi operativi, pur con lo stesso fine e con lo stesso risultati, hanno scelto
similitudini differenti per descrivere il proprio sistema di archiviazione. Nel DOS viene
chiamato ad albero, nel MacOS si parla di cartelline.
Il DOS crea un archivio centrale e principale del disco, detto root directory. In questa radice
sono depositati i file principali del sistema, e da qui dipartono le diversi componenti
dell'albero, ognuna dei quali chiamato subdirectory. Ciascuna subdirectory può contenere
files di dati o programmi, ma soprattutto può dare origini ad altre ramificazioni, ad altre
subdirectory.
Le subdirectory rappresentano i settori, i livelli, le cartelle e le cartelline del nostro
immaginario archivio. Si possono creare fino a 512 subdirectory nella root directory, e fino
512 subdirectory in ciascuna subdirectory. Riandando al nostro esempio, l'archivio può
avere 512 scaffalature, ognuna suddivisa in 512 settori, ciascuno con 512 livelli, ognuno dei
quali con 512 cartelle che contengono 512 cartelline che contengono 512 cartelline che
contengono 512... un bel po' di spazio!
Il Mac/Os mostra visivamente, all'interno del disco rigido, oltre ai file di dati ed ai programmi,
della cartelline. All'interno di queste cartelline, una volta aperte, troviamo altre cartelline,
insieme ai file, ed ancora altre cartelline. La suddivisione consentita dal Mac/Os in cartelline
19
non ha limite, se non quello fisico del disco.
Con tutte queste scaffalature, cartelle e cartelline, se l'usciere non è in gamba, schedario
fatto con cura e l'organizzazione delle scaffalature ben fatta, abbiamo buone probabilità di
non riuscire più a trovare la lettera alla ditta Gualtiero Rossi. L'usciere, non c'è dubbio, è
abile e sveglio: è il sistema operativo; e sullo schedario non abbiamo problemi: lo gestisce il
sistema direttamente sul disco. I guai iniziano per l'organizzazione delle scaffalature.
Si, perché qui dovete provvedere voi.
Una strategia per l'organizzazione
La migliore organizzazione del disco è quella che corrisponde ad una suddivisione logica.
Se esiste uno schema ben chiaro, la ricerca di un file sarà facilitata. Non sarà necessario
ricordare a memoria esattamente la path, ma basterà ricostruirla secondo logica.
Sono due le alternative. Possiamo suddividere i file secondo la natura del programma con
cui abbiamo creati, oppure possiamo raggrupparli per argomento.
Nel primo caso avremo tante subdirectory quanti programmi utilizziamo, ed al suo interno
altre eventuali subdirectory più specifiche. Ecco un esempio:
Disco rigido
|
|-- WORDPROC
|
|
|
|-- LETTERE
|
|-- BOZZE
|
|-- RELAZIONI
|
|-- CIRCOLARI
|
|-- APPUNTI
|
|-- DATABASE
|
|
|
|-- IND CLIENTI
|
|-- IND FORNITO
|
|-- MAGAZCARIC
|
|-- MAGAZSCARIC
|
|-- MAGAINVENTA
|
|-- SPREADSH
|
|
|
|-- FATTURE
|
|-- PRIMA NOTA
|
|-- CONTOCORREN
|
|-- REGIRPEG
|
|-- REG.IVA
|
|-- RIT.INPS
|
|-- RIT.IRPEF
Questo tipo di struttura prevede una subdirectory per i file di word processing, una per gli
archivi del data base ed una terza per i fogli di calcolo dello spreadsheet. All'inizio questo
tipo di gerarchia funziona bene. E' facile trovare un documento, basta ricordarsi con quale
programma è stato realizzato e cercare nell'apposita subdirectory.
Ci sono però due controindicazioni.
I documenti correlati sono distanti fa loro. Le lettere ai clienti, i listini di vendita, il data base
con le etichette, il conto delle vendite sono sparsi per tutto il disco.
Alcuni documenti vengono elaborati con più programmi. Bisognerà decidere e poi ricordarsi
quale dei due è preminente.
20
Ed ecco un esempio di organizzazione per argomento:
Disco rigido
|
|-- CLIENTI
|
|
|
|-- LETTERE
|
|-- FATTURE
|
|-- AVVISI
|
|-- SOLLECITI
|
|-- ETICHETTE
|
|-- FORNITORI
|
|
|
|-- LETTERE
|
|-- PAGAMENTI
|
|-- AVVISI
|
|-- ORDINI
|
|-- ETICHETTE
|
|-- CONTABILITA
|
|
|
|-- FATTURE
|
|-- PRIMNOTA
|
|-- CONTOCORREN
|
|
|
|-- RITENUTE
|
|
|-- INPS
|
|
|-- IRPEF
|
|
|-- DICHIARAZIO
|
|
|
|-- REGISTRI
|
|
|-- IRPEG
|
|
|-- IVA
|
|-- MAGAZZINO
|
|
|
|-- CARICO
|
|-- SCARICO
|
|-- INVENTARIO
Con questa impostazione è più facile rintracciare documenti correlati, come una lettera ed il
listino che vi abbiamo allegato, ma è più complessa la struttura che diamo al disco, e quindi
più complicata la ricerca.
Non esiste una organizzazione ideale dei file. L'importante è che corrisponda al vostro modo
di lavorare, alla vostra logica. Immaginatevi di ritornare, dopo un mese di vacanze, davanti
al vostro computer. Dovreste essere in grado di orizzontarvi perfettamente tra le
subdirectory come farete fra le stanze di casa vostra.
Può anche capitare che, in vostra assenza, un vostro collega abbia la necessità di lavorare
con il vostro computer. La vostra organizzazione non deve essere troppo astrusa, quindi, ed
il vostro modo di denominare le subdirectory ed i documenti deve essere il meno criptica
possibile.
21
E' necessario fare molta attenzione alla denominazione dei file, al loro spostamento ed alle
copie, per evitare che un nuovo file ne cancelli uno vecchio perché ne ha lo stesso nome.
Una caratteristica di tutti i sistemi operativi, infatti, è quella di non consentire che due file,
all'interno della stessa subdirectory, o cartellina, abbiano lo stesso nome. Ed è logico, visto
che il sistema operativo non ha alcun sistema per distinguerli se non con il nome.
Tuttavia i sistemi operativi etichettano il file, alla creazione od alla modifica, con la data e
l'ora corrente. Quasi sempre è lo stesso sistema operativo che informa l'utente di queste
date quando viene chiesto l'elenco dei file, oppure quando si effettua una spostamento di un
file in una cartellina che già contiene un file con lo stesso nome.
Ma se questo può servirci per identificare un file, o per sapere quale delle due versioni di
uno stesso documento sia la più recente, non può permettere la coesistenza di due file con
lo stesso nome, anche se creati o modificati in data diversa. Si tratta di una scelta
fondamentale e strategica, perché altrimenti il computer continuerebbe a registrare senza
mai sostituire. Tutte le versioni che registriamo di una lettera via via che la scriviamo, la
correggiamo, la modifichiamo, esisterebbero ancora tutte insieme provocando confusione e
riempendo in breve tempo anche il disco rigido più capace.
Il suggerimento che ci da il sistema operativo è il più banale. Se vogliamo avere versioni
diverse di uno stesso documento, basta registrarle con nomi diversi. Basta aggiungere un
"1" od un "2", un "bis", o proprio un altro nome.
In ogni caso dovremo attribuire un nome ad un file in modo che possa essere facilmente
identificato, che non possa creare equivoci sulla sua identità o con altri documenti.
Chiamare "Giovanni" una relazione al vostro capoufficio può anche andare bene, ma non se
lui si chiama Vittorio. Registrare come "Lettera" una lettera, "Bozza" una bozza ed "Appunto"
un appunto, vuol non sapere più di cosa si tratta, ma soprattutto cancellarlo al primo
documento dello stesso tipo (e con lo stesso nome) che si crea.
Purtroppo alcuni sistemi operativi, come il DOS, hanno delle limitazioni di lunghezza nel
nome dei file. Il DOS permette solo undici lettere. Solo otto, però, costituiscono il nome vero
e proprio, mentre le altre tre, chiamate estensione e separate dalla prima parte da un punto,
vengono spesso riservati al programma con il quale avete generato il documento.
Eccoci allora tentati di sintetizzare. Nascono nomi come "LettaMil", come "RelazCap", come
"DicIrpMi", che possono portare ad equivoci se non si sono precedentemente organizzati in
una buona struttura gerarchica. "LettaMil" potrebbe essere una lettera alla filiale di Milano se
nella subdirectory "FiliaMilano", ma anche una lettera a Milena se nella subdirectory
"Personale".
L'organizzazione delle informazioni nel vostro disco rigido deve:
•
consentire l'immediata catalogazione di un documento, senza nutrire dubbi su quale
subdirectory lo debba ospitare;
•
facilitare la ricerca di un documento anche a distanza di tempo e fra documenti
simili;
•
corrispondere al modo personale di organizzarsi l'ambiente di lavoro, per una
maggiore efficienza;
•
permettere anche ad altri utenti di lavorare;
•
evitare equivoci fra documenti dal nome uguale o simile.
I nomi dei file devono:
•
esprimerne sinteticamente il contenuto;
•
impedirne la cancellazione durante la copia o gli spostamenti;
•
essere ben specifici ed il meno possibile generici;
•
prevedere un espediente per distinguere diverse versioni dello stesso documento.
22
Guasti, assistenza e crimini
La vita tecnologica di un computer è breve. Nel giro di due o tre anni il computer che avete
acquistato potrebbe essere fuori produzione, rimpiazzato da un modello più potente e di
minor costo. Non è un buon motivo per buttarlo via al primo guasto. Il costo del computer,
delle sue periferiche e dei programmi, rappresenta spesso un notevole investimento, e deve
essere tutelato il più possibile.
Come ogni altro prodotto, i computer godono di una garanzia di un anno dall'acquisto,
garanzia che spesso comprende i pezzi di ricambio ma non l'intervento del tecnico ed il
trasporto del computer. Molto spesso le periferiche, soprattutto le più delicate come gli
scanner, vengono garantite solo per pochi mesi, spesso sei, a volte tre ma anche uno solo.
I costi di riparazione di questo tipo di apparecchiature sono molto alti: spesso due o tre
interventi superano il costo della stessa macchina. Il che è giustificato da una parte dal fatto
che si tratta di interventi che richiedono l'opera di specialisti, e dall'altra che i pezzi di
ricambio hanno spesso un unico fornitore.
Inoltre le tecnologie costruttive odierne, di tipo modulare, impediscono il piccolo intervento
che, con una sciocchezza, risolve il guasto. I componenti sono spesso montati in modo
inscindibile l'uno dall'altro ed il tecnico sostituisce l'intero modulo. Se si considera che un
computer è costituito da una sola scheda madre, un trasformatore, un disco rigido ed un
floppy, bastano quattro guasti per sostituire l'intero computer, con un costo più che
proporzionato.
Nell'acquistare un computer od una qualsiasi altra apparecchiatura accessoria è
indispensabile pretendere la garanzia di un anno. In caso contrario, è preferibile scegliere un
altro modello.
L'assistenza
Bisogna distinguere fra garanzia ed assistenza. Il computer ha la regolare garanzia di un
anno, ma se il produttore, il distributore ed il rivenditore non sono in grado di garantire un
servizio tecnico di assistenza efficiente, la garanzia è inutile.
I guasti che avvengono in un computer sono bene individuabili e velocemente riparabili, ma
anche il più piccolo può paralizzare il lavoro. Un'automobile può viaggiare anche se il
tergicristalli non funziona od il riscaldamento è fuori uso, ma i componenti di un computer
devono essere assolutamente tutti in piena salute. Basta che si rompa un tasto della
tastiera, od un piedino della porta seriale, oppure che il connettore della porta video faccia
un falso contatto, per rendere il computer inutilizzabile. Spesso il malfunzionamento viene
identificato dagli autotest che avvengo all'accensione, ed il computer rifiuta addirittura di
entrare in funzione.
Una riparazione può essere questione di ore, se il laboratorio di assistenza è efficiente e se i
componenti sono disponibili, oppure mesi, se il laboratorio è inefficiente o semplicemente
non esiste ed il rivenditore è costretto a spedire il computer guasto al produttore.
Acquistando un computer, bisogna accertarsi che il rivenditore disponga di un laboratorio di
riparazione ben fornito di componenti e di tecnici, oppure che sia in grado di fornire un
elenco di laboratori presso cui sia possibile recarsi per le riparazioni in garanzia.
All'atto dell'acquisto è possibile, in alcuni casi, sottoscrivere un contratto di assistenza che
copre da ogni costo, compreso quello di intervento, e che prevede la riparazione a domicilio
o con il trasporto gratuito. Questo tipo di garanzia prevede anche che l'intervento del tecnico
venga effettuato entro un tempo limite. Nel caso che l'apparecchiatura non possa essere
subito riparata, alcuni di questi contratti garantiscono il noleggio gratuito di una
apparecchiatura equivalente per tutto il periodo in cui la vostra sarà inutilizzabile.
Un contratto di assistenza a pagamento può essere stipulato sia durante il corso della
garanzia gratuita che alla sua scadenza. Il suo costo sarà proporzionale al valore a nuovo
della macchina e dipenderà dal tipo di copertura prevista.
23
L'origine dei guasti
Tranne difetti di fabbricazione, che in genere si rivelano subito, sin dai primi attimi di lavoro,
un computer non è molto soggetto a guasti. Le parti meccaniche sono molto limitate e non
sono soggette a logoramento. La parte elettronica, se non viene sottoposta a traumi come
cadute, eccessivo calore o sbalzi di corrente, ha un periodo di vita praticamente illimitato.
L'eccesso di calore è una causa frequente di malfunzionamenti temporanei o di guasti di
componenti elettronici. Il manuale riporta sempre un arco di temperatura adatta al computer,
ma è necessario distinguere fra la temperatura ambientale della stanza nella quale si trova
l'apparecchiatura e la temperatura all'interno del computer. Mentre la prima è ben al di sotto
dei limiti previsti, la seconda può facilmente innalzarsi oltre la soglia per tutta una serie di
fattori:
- sul computer sono presenti delle fessure che servono da prese di aerazione per i
componenti interni. Appoggiare libri al computer, od altri oggetti, può provocare la chiusura
di queste prese bloccando il ricambio d'aria;
- il monitor produce una notevole quantità di calore: è sempre consigliabile utilizzarlo con un
piedistallo non solo per comodità, ma perché si crea uno spazio fra computer e monitor nel
quale il calore si disperde;
- polvere, cenere, fumo ed altri sporchi penetrano all'interno del computer attraverso le
fessure di aerazione: a computer spento, è consigliabile aprire il coperchio e pulire
delicatamente la scheda madre e tutti i componenti almeno una volta l'anno o pim
frequentemente, se necessario, con gli stessi strumenti che si utilizzano per pulire le
macchine fotografiche;
- l'interno del computer, quasi vuoto al momento dell'acquisto, può rapidamente affollarsi di
schede: ciò non solo blocca la normale convezione dell'aria, ma provoca calore sia per i
componenti stessi che per l'alimentatore/trasformatore, sottoposto a superlavoro: può
essere installata una ventola interna di raffreddamento, oltre ad un
alimentatore/trasformatore con maggiore capacità.
Gli sbalzi di corrente che provocano guasti non sono quelli che provengono dalla linea
elettrica, che viene regolata dall'alimentatore/trasformatore, ma dagli altri collegamenti con
schede e periferiche.
Negli slot in cui vengono inserite le schede e nei connettori seriali e paralleli, nonché in quelli
per il monitor e la tastiera, sono spesso presenti dei contatti che portano corrente elettrica.
L'intensità è bassa, ma l'inserire una scheda od un cavo mentre il computer è acceso, e
quindi è presente la corrente nei contatti, può provocare seri danni sia ai componenti della
scheda madre sia a quelli della scheda.
Oltre allo sbalzo di corrente, il danno può essere provocato anche dal falso contatto che si
può provocare, con un maldestro inserimento, fra parti dedicate al traffico dei dati. Portare
una corrente di 12 volts in una linea dati significa danneggiare definitivamente i componenti
elettronici. Nel gergo dei riparatori, si dice che la scheda è stata "fritta", o "bruciata".
Allegoria che non è molto distante dal vero.
Ogni inserimento o sconnesione di schede o cavi deve sempre avvenire a computer spento,
così come devono essere sempre spente anche le apparecchiature collegate.
L'inserimento di schede nella scheda madre o la loro estrazione sono spesso causa di danni
se non effettuate con ogni cura.
La prima precauzione da prendere, dopo aver spento il computer, è quella di scaricare
l'energia statica che potrebbe essere presente sul corpo. Se venisse trasmessa ai
componenti della scheda, attraverso le mani, la piccola scarica elettrica danneggerebbe i
delicati circuiti interni delle memorie ROM e RAM. Ogni volta che si tocca una scheda è
necessario toccare prima il contenitore in ferro dell'alimentatore/trasformatore per scaricarsi.
La seconda precauzione è quella di usare sempre molta delicatezza. Una inserzione forzata
od una estrazione violenta possono provocare rotture o incrinature nella sottile superficie
delle schede, con la conseguente irrimediabile interruzione dei circuiti stampati.
24
Le precauzioni
Infine alcune indicazioni per una corretta sistemazione ambientale del computer:
- non deve mai trovarsi in vicinanza di fonti di calore, come termosifoni o stufe;
- non deve mai essere direttamente esposto alla luce del sole;
- non deve mai essere in vicinanza di zone umide o con possibilità si schizzi d'acqua;
- i cavi devono essere raggruppati e fissati al tavolo, non devono rimanere penzolanti o
arrotolati sul pavimento in zone di passaggio;
- intorno ai lati del computer non devono esserci oggetti, il computer deve essere ad almeno
dieci centimetri da pareti o scaffalature;
- nel raggio di mezzo metro dal computer non dovrebbero esserci altre apparecchiature
elettriche come fotocopiatrici, televisori, elettrodomestici;
- la linea elettrica che alimenta il computer non dovrebbe essere in comune con
apparecchiature che provochino grossi consumi improvvisi come luci al neon, fotocopiatrici,
elettrodomestici.
In caso di guasto
Innanzi tutto è molto probabile che non si tratti di un guasto vero e proprio, bensì di un
cattivo funzionamento per cause hardware o software.
Una periferica che abbia bisogno di una particolare procedura di installazione non può
funzionare se non la si effettua correttamente, o se in seguiti si cancellano i file di cui ha
bisogno per funzionare. Un tentativo da fare è di effettuare una nuova installazione del
software richiesto dalla periferica.
Una periferica che funziona con un programma, non è detto che funzioni con un programma
che è simile, ma differisce nella gestione delle periferiche. Se l'apparecchiatura con alcuni
programmi funziona e con altri no, si tratta di un evidente caso di incompatibilità.
Un cavo male collegato o con dei contatti instabili può provocare il malfunzionamento
saltuario o permanente della periferica in uno od in entrambi i sensi della trasmissione dei
dati. Il computer può trasmettere alla periferica, ma non può ricevere. E' necessario
controllare l'inserimento corretto dei cavi e se non siano rotti in qualche punto.
Lo stesso inconveniente può essere dovuto allo spostamento di una scheda nello slot a
causa di un urto al computer.
Gli aggiornamenti del software, sotto questo punto di vista, sono pericolosissimi. Un
programma può smettere di funzionare perché è stato aggiornato il sistema operativo, ma
non ancora il programma. Stessa situazione quando è il programma ad essere stato
aggiornato, ma la versione del sistema operativo è vecchia.
Il verificarsi di malfunzionamenti subito dopo l'aggiunta di una scheda nuova, pone un grave
dubbio sull'efficienza della stessa. La scheda può essere innocente, e la colpa derivare da
un programma vecchio ed incompatibile.
L'abitudine di munire il computer di piccole utilità che occupano piccole porzioni di memoria
e che visualizzano l'ora sul monitor, ne cambiano lo schermo durante i momenti di pausa,
esamino i dischi alla ricerca di virus, e così via, può essere la causa di molti
malfunzionamenti altrimenti inesplicabili. In questo caso è necessario eliminare queste utilità
una per una, fino ad individuare la colpevole. Spesso non è il programmino in sé ad essere
la causa dell'apparente guasto, ma semplicemente l'abbinamento di due o più che si
ritrovano così in conflitto.
In caso di guasti o malfunzionamenti è sempre consigliabile, prima di chiamare il tecnico,
verificare queste possibilità, compreso il corretto inserimento della spina nella presa della
corrente elettrica. Non sono rari gli utenti che chiamano il tecnico senza accorgersi che è
andata via la luce all'intero quartiere.
E' comunque necessario cercare di comprendere bene in quale circostanze si verifica il
malfunzionamento. In particolare:
- quale sistema operativo è presente e con quale versione;
- quale programma è in esecuzione;
- quale programma abbiamo utilizzato prima di questo;
- se vi sono programmi di utilità residenti in memoria, e quali;
25
- quali sono le periferiche accese e quali quelle spente;
- quali sono le schede presenti negli slot del computer;
- da quanto tempo è acceso il computer, da quanto tempo vi stiamo lavorando o per quanto
tempo è rimasto inattivo.
La fonte del guaio potrebbe essere individuata cercando di replicare il malfunzionamento
variando una per volta le circostanze originarie.
Tenete comunque presente che i tecnici addetti all'assistenza ed alla riparazione di
computer diffidano della capacità di un utente ad usare un personal. La prima ipotesi che
viene fatta è sempre quella di un errore dell'utente, e l'ultima è sempre quella di un guasto
dell'hardware.
I virus
I virus del computer sono programmi realizzati per divertimento, il cui unico scopo è quello di
danneggiare o rendere inefficiente un computer. Dopo i molti articoli pubblicati sui giornali,
un utente inesperto, che si trovi davanti ad un malfunzionamento per lui incomprensibile,
pensa immediatamente all'esistenza di un virus.
Niente di più errato. Un virus può avere come obiettivo la distruzione di tutto quanto sia
registrato sul disco rigido, oppure di rallentare tutte le attività del computer. Quello che è
sicuro è che un virus non lascia palesare la sua presenza con molta facilità.
Il danno che egli provoca deve essere immediato e totale, oppure graduale ed inavvertibile.
Un virus che provocasse un malfunzionamento evidente, ma parziale, tradirebbe la sua
presenza senza raggiungere nessun obiettivo definitivo.
Non è facile identificare la presenza di un virus, a meno che non si tratti di un virus
"dimostrativo" che si limita a far rimbalzare una pallina sullo schermo. I virus "seri" possono
essere rintracciati solamente con appositi programmi, chiamati antivirus, che esaminano i
codici di ogni programma presente nel disco alla ricerca di particolari sequenze di dati.
I virus conosciuti si possono dividere in categorie:
- bombe logiche: si installano nel sistema ed attendono una particolare situazione, ad
esempio la cancellazione di un nome dal programma degli stipendi per cancellare tutti i dati
amministrativi e fiscali (tipica ritorsione di programmatori che sospettano un imminente
licenziamento);
- bombe a tempo: la distruzione degli archivi avviene allo scadere di un determinato periodo
od in una data precisa (alcuni di questi virus sono stati utilizzati a scopi politici);
- cavalli di troia: piccoli programmi che sembrano svolgere una attività utile, ma che di
nascosto ostacolano e rallentano le attività del computer, oppure ne alterano i dati;
- infestanti: si diffondono da computer a computer, attraverso i collegamenti in rete, non
avendo lo scopo diretto di danneggiare i computer, ma solo di riprodursi con la maggiore
velocità possibile, rendendo ben presto impossibile il normale lavoro;
- back door: cioè porta di servizio, che permettono l'aggiramento delle normali procedure di
sicurezza e l'ingresso senza autorizzazione in archivi di dati riservati importanti per
l'azienda;
- virus: propriamente detti, che consistono in una sequenza di codici che si autoinstallano in
determinati programmi al posto del codice originale e che, alla prima occasione, infettano
altri programmi.
Alcuni di questi virus hanno semplicemente una origine dolosa, ed i danni che provocano
non apportano alcun vantaggio al programmatore che lo ha creato. Altri, soprattutto i back
door, hanno una utilizzazione esclusivamente criminale a fini di spionaggio, di ricatto, di furto
di informazioni, o di manipolazione delle stesse per trarne vantaggio.
Le principali precauzioni che possono essere prese per prevenire l'attacco da parte di un
virus sono:
- proteggere il computer con un programma antivirus che esamina tutte le attività cercando e
segnalando quelle "sospette";
- esaminare periodicamente il disco ed i dischetti con un programma antivirus che rintracci i
dati caratteristici dei virus conosciuti;
26
- impedire che persone estranee lavorino con il nostro computer utilizzando loro dischetti e
loro programmi;
- non utilizzare mai nessun programma, originale o meno, acquistato o preso in visione,
senza averlo fatto esaminare dal programma antivirus;
- ricevendo un dischetto da un amico o da un collaboratore, inserirlo nel drive del computer
solamente se è attiva la protezione antivirus ed esaminando immediatamente il dischetto;
- portando propri dischetti per lavorare con il computer di un altro utente, avere cura di
tenerli costantemente protetti dalla scrittura.
Con questo tipo di precauzioni è molto difficile che un virus riesca ad entrare nel vostro
computer per danneggiarlo.
Il crimine informatico
Un capitolo a parte meriterebbe la sicurezza informatica, problema particolarmente sentito
nel mondo aziendale. Possiamo così dividere gli atti dolosi che hanno a che vedere con i
computer:
- furto delle informazioni contenute nel computer;
- abuso del computer per trarre profitto da operazioni del lavoro ordinario;
- intrusione in sistemi informativi per utilizzarne i servizi;
- sabotaggio del computer o delle informazioni contenute;
- furto di dispositivi hardware.
Un esempio del primo tipo di crimine informatico è quello dell'impiegato che, avendo la
possibilità di accedere ad un nuovo progetto industriale, ne vende una copia alla
concorrenza.
Nel secondo caso cade il bancario che detrae poche lire per ognuna delle centinaia di
operazioni bancarie che avvengono ogni giorno in un centro di calcolo di un istituto
finanziario, immettendole sul proprio conto.
L'utilizzo di password trafugate è all'origine del terzo tipo di azione dolosa. Un individuo
accede, tramite la parola d'ordine di un ignaro utente regolare, ad un servizio telematico a
pagamento, come il Videotel, e ne utilizza i servizi facendone addebitare i costi sul
nominativo legale. In questo caso il criminale non trae vantaggi concreti dalla sua azione,
per lo meno non in termini monetari.
Ugualmente poco redditivo è il quarto caso di crimine informatico, usualmente praticato da
impiegati scontenti o sul punto di essere licenziati. I danni provocati possono essere diretti,
come il guasto provocato a qualche apparecchiatura, o indiretti. E' di questa specie
l'immissione di un virus nei computer aziendali, oppure una attività di danneggiamento delle
informazioni cancellando o alterando quelle esistenti o creandone una certa quantità di
false.
Meno raro di quello che si possa pensare, il terzo tipo di crimine. Certo è ben difficile che un
impiegato possa uscire dall'ufficio con un personal sotto il braccio, ma la gran parte delle
schede è comodamente occultabile in una cartellina per documenti. Per non parlare dei
dischetti, dei mouse o dei cavi, tutti abbastanza piccoli da entrare in una tasca di soprabito.
In quest'ultimo tipo di crimine rientra anche la copiatura del software originale. L'azienda non
ne risente un danno diretto, ma l'impiegato che copia un software originale per utilizzarlo a
casa può provocarne uno anche più grave.
All'atto dell'installazione dei programmi viene richiesta la digitazione del numero di serie, che
viene così registrato nel codice stesso del programma. Lo stesso numero è a conoscenza
del produttore o del distributore ufficiale tramite la fatturazione o l'invio della scheda per la
garanzia, l'assistenza e le future offerte di aggiornamento a prezzo scontato. Se il
dipendente copia il programma in ufficio e poi, come spesso capita, lo scambia con altri che
a loro volta lo scambiano di nuovo, il programma potrebbe finire nella mani "sbagliate" e,
tramite l'individuazione del numero di serie, portare a perquisizioni e cause per danni.
27
Il backup
Quale che sia l'origine del nostro problema, guasto di hardware, malfunzionamento di un
software, caduta dell'energia elettrica, virus o sabotaggio, la conclusione è che il computer è
inutilizzabile e molti giorni di lavoro sono ormai persi. A meno che non sia stato fatto un
backup, cioè una copia dell'intero archivio o delle parti più importanti.
L'abitudine di effettuare backup frequenti dell'hard disk presente all'interno del computer può
essere noiosa, ma è l'unico stratagemma che ci consente di recuperare il nostro lavoro nel
caso che il computer si guastasse in modo drastico.
Esistono programmi per effettuare il backup in modo completamente automatico, su un
singolo computer o su una rete di personal, in ore non lavorative oppure parallelamente al
lavoro ordinario. L'effettuazione di una copia di tutti i documenti, o almeno di quelli importanti
o di quelli nuovi o modificati, può essere un impegno noioso e, al 99 per cento delle volte
inutile. Ma quando si verifica un "incidente", come il guasto di un disco rigido, la
cancellazione fortuita di alcuni documenti o l'infezione da parte di un virus, non avere una
copia dei programmi e dei documenti vuol dire averli persi definitivamente.
Il backup deve essere studiato in modo strategico, tale da intralciare il lavoro ordinario il
meno possibile, ma da essere realmente efficace in caso di necessità.
Esistono due tipi di backup:
- backup completo, quando si effettua una copia totale di un disco rigido;
- backup incrementale, quando si copiano esclusivamente i documenti nuovi e quelli
modificati.
Quello completo richiede molto più tempo di quello incrementale, ma effettua una copia
sicuramente esatta del disco rigido. Del resto, se i dati contenuti nel disco rigido non
subiscono un totale cambiamento ogni giorno, è inutile effettuarne una copia completa quasi
identica a quella precedente. Una strategia di backup prevede l'alternanza dei due tipi.
Si fa, ad intervalli stabiliti, un backup completo del disco rigido. Nell'intervallo di tempo fra
due backup completi, si fanno tanti backup incrementali. Nel momento in cui il disco rigido si
rovinasse, sarebbe sufficiente recuperare i dati totali dal backup completo e poi ristabilire le
modifiche recuperando i backup incrementali.
La successione nel tempo può essere:
- un backup completo al mese ed uno incrementale alla settimana, quando il ricambio di dati
nel computer sia modesto;
- un backup completo alla settimana ed uno incrementale al giorno, quando i dati del disco
rigido subiscano aggiornamenti continui.
I backup incrementali devono essere conservati solamente per il periodo di tempo da un
backup completo all'altro, ma per questi ultimi il discorso cambia. Se si archiviano
sistematicamente copie dei documenti elaborati o degli archivi di dati su dischi rimovibili o
nastri, allora i backup completi possono essere cancellati dopo un certo periodo di
prudenza. Altrimenti essi sono l'unica possibilità di recupero di documenti a dati vecchi di
mesi od anni, e vanno conservati permanentemente.
Un documento conservato in un backup completo effettuato su nastro, per quanto al sicuro,
richiede molto tempo per essere trovato e recuperato. Se questo tipo di consultazione è
frequente, è consigliabile archiviare copie singole dei documenti in modo organizzato,
creando una biblioteca su dischi rimovibili di grande capacità, ottici o magnetici.
Per l'uso privato o professionale, può essere sufficiente registrare i documenti non più usati
su normali dischetti, magari in doppia copia su dischetti diversi, conservandoli in luoghi
separati.
Le unità di memoria di massa ideali per l'effettuazione di backup, sia completi che
incrementali, sono i nastri magnetici. Hanno un costo limitato, una capacità molto grande ed
una buona velocità in registrazione. L'unico inconveniente è che l'eventuale recupero di un
documento avviene in tempi molto lenti.
Effettuare backup con rischi rigidi rimovibili, o con dischi ottici, consente un recupero
istantaneo della copia di un documento, ma costringe ad utilizzare una unità di memoria di
massa molto costosa.
L'uso di normali dischi o dischetti floppy è del tutto sconsigliato per i backup. L'operazione
sarebbe lunghissima e molto costosa, dovendo utilizzare molte decine, se non centinaia, di
28
floppy.
La combinazione ideale vede:
- una unità a nastri per i backup completi, conservabili così anche per anni;
- una unità a dischi rigidi rimovibili per i backup incrementali temporanei;
- una unità a dischi ottici scrivibili o a dischi rigidi rimovibili per l'archiviazione definitiva di
documenti importanti di cui è probabile la consultazione.
Programmi di protezione
Esistono piccoli programmi di salvaguardia delle informazioni contenute nel disco rigido di
ciascun computer. Questo software di utilità lavora in due tempi.
Un programma è sempre residente in memoria, e si incarica di tenere una copia della
mappa dei documenti contenuti nel disco rigido. La mappa può essere periodicamente
registrata su un dischetto o su un altro disco rigido.
Un secondo programma, in caso di una distruzione della mappa originale del disco o di una
formattazione parziale del disco, è in grado di ricostruire tutto il contenuto del disco, od
almeno una parte, utilizzando le informazioni contenute nella copia della mappa. Lo stesso
programma può anche ricostruire un singolo documento, cancellato per errore.
Entrambe le operazioni di salvataggio sono però soggette a fallimento e non possono dare
alcuna garanzia di recupero. Sono un valido aiuto per rimediare ai danni provocati dalla
distrazione o dal caso, ma non possono sostituire una costante strategia di backup.
Le controindicazioni alla protezione
La strategia di protezione contro guasti, virus e crimini può anche presentare delle
controindicazioni.
Facciamo un esempio. Abbiamo paura che i dati del nostro computer vengano sottratti.
Acquistiamo un apposito programma e proteggiamo l'accesso all'archivio con una parola
d'ordine. Una volta inserita la parola d'ordine, nessuno può più lavorare con quei dati.
Bene, ma si possono verificare i casi seguenti:
- l'utente installa il programma e, provandolo, inserisce una parola d'ordine per errore e non
riesce più a ricordarla. L'archivio è perso. Nessuno, in nessun modo, può recuperare la
parola d'ordine;
- l'utente ha installato la parola d'ordine e la ricorda, ma ha paura di non ricordarla e quindi
la scrive su una agenda che tiene sul tavolo. Non solo l'archivio potrà essere letto
facilmente, semplicemente aprendo l'agenda e trovando la parola d'ordine, ma l'utente
continuerà ad inserire dati confidenziali convinto di essere al sicuro;
- l'utente ha installato la parola d'ordine, sa di non doverla scrivere in posti facilmente
accessibili, e quindi ne sceglie una facilmente ricordabile come il nome della moglie, della
figlia, del cane, la targa dell'auto, il numero di telefono di casa, il soprannome con cui lo
chiama la moglie. Sono queste le prime parole d'ordine che un criminale tenta di inserire, ed
anche ad inserirle all'inverso od anagrammate;
- l'utente ha installato la parola d'ordine, la ricorda benissimo e l'usa correttamente. Un
giorno, però, da le dimissioni e se ne va senza lasciarla in consegna a nessuno.
In questi casi la soluzione si rivela peggiore del male. Anche la psicosi del virus può
danneggiare od ostacolare il lavoro.
E' molto frequente vedere computer con installati appositi programmi antivirus che
effettuano automaticamente un esame approfondito di ogni dischetto che vi viene inserito.
Controllo molto utile, ma se i dischetti sono sempre rimasti nelle mani dello stesso
utilizzatore del computer o di suoi colleghi ugualmente protetti, a cosa serve effettuare più
volte lo stesso controllo se non a perdere tempo? Meglio, allora, effettuare il controllo
espressamente per i soli dischetti che provengono da estranei.
29
Assemblare il proprio personal
A fianco dei modelli di marche più o meno conosciute, molti rivenditori di computer offrono in
vendita personal “assemblati” a prezzi più economici rispetto ai computer di marca.
Ma cosa vuol dire “PC assemblato”? Ci si può fidare, conviene, quali sono i risvolti negativi?
Un computer assemblato è una macchina (desk o tower, non esistono portatili assemblati)
che il rivenditore stesso non ha acquistato così com’è, bensì che ha creato lui stesso
assemblando tutti i diversi componenti.
Si sa che un qualsiasi produttore di personal computer, anche le marche più prestigiose ed
importanti, non produce autonomamente quasi nessun componente dei personal che vende.
I diversi componenti vengono acquistati sul mercato internazionale o, nel migliore dei casi,
fatti costruire su specifiche particolari, e quindi assemblati nelle proprie fabbriche. Un
construttore di PC è quindi, in realtà, un assemblatore di pezzi provenienti da diverse zone
del mondo (spesso dall’estremo oriente).
I componenti principali di un personal sono:
•
CPU
•
mother board
•
RAM
•
Hard Disk
•
scheda video
•
lettore di CD-ROM
•
lettore di floppy disk
•
tastiera
•
mouse
•
case (contenitore)
•
alimentatore
•
cavi di connessione fra i componenti
cui si aggiungono spesso:
•
scheda audio
•
scheda SCSI
•
scheda di rete
La CPU, il processore principale, ad esempio, è prodotto da tre sole società. Anche i
principali produttori di mother board o quelli dei lettori di CD-ROM si contano sulle dita di
due mani. Aprendo il computer e leggendo le marche effettive dei componenti si può
scoprire che due personal di marca diversa e venduti a prezzi differenti, in realtà sono
perfettamente identici. Oppure che due esemplari dello stesso modello della identica marca
hanno componenti diversi e di prestazioni differenti.
Può succedere, infatti, che la società ABC, produttrice di personal, utilizzi per i propri modelli
un hard disk della società ZXY. Di fronte ad una maggiore richiesta del mercato, la società
ABC ha bisogno di un numero maggiore di hard disk che però la società ZXY non ha. ABC
si rivolge quindi ad un altro produttore, comprando hard disk della stessa capacità ma,
magari, con una velocità maggiore.
Ecco quindi che due acquirenti dello stesso modello di computer della medesima marca si
possano trovare, a loro insaputa, con hard disk dalle prestazioni differenti. Uno, più
30
fortunato, ha un hard disk più veloce dell’altro.
E così per le mother board, le schede video, audio...
Per consentire la massima facilità di assemblaggio, le stesse marche di personal hanno
chiesto ai produttori di componenti di standardizzare il più possibile la loro produzione,
proprio per evitare problemi di “shortage”, cioè per evitare che la mancanza di un singolo
componente impedisca l’assemblaggio di migliaia di computer.
Una fabbrica di componenti può fallire, essere vittima di un incendio, un terremoto, oppure
bloccata da uno sciopero o da un grave guasto nella linea di produzione. La marca di
personal deve essere in grado di reperire, nel più breve tempo, lo stesso tipo di componente
perfettamente compatibile con quello mancante e così assemblare i personal da vendere.
Qualche hanno fa, l’incendio di un importante produttore di processori di memoria RAM
bloccò parecchie decine di migliaia di personal nelle fabbriche di tutto il mondo, completi di
tutto ma mancanti di RAM!
Essendo possibile comprare i singoli componenti dai grossisti di elettronica, qualsiasi
rivenditore di computer è in grado di assemblare in brevissimo tempo, anche mezza
giornata, il tipo di personal richiesto dal cliente. Basta che questo gli indichi le esigenze di
prestazioni e quali componenti desidera, ed ecco che nasce un computer “su misura”.
Vantaggi e svantaggi
Il primo vantaggio è ovvio: avere esattamente quello che si vuole, né un Gb di più né uno di
meno. Avere, cioè, una macchina che risponde esattamente alle proprie esigenze. Non è
necessario prendere per forza la scheda sonora stereo, si può includere un secondo disco
rigido per il backup, si può scegliere un lettore di CD-ROM nuovissimo e velocissimo...
Il secondo vantaggio, non meno importante, è che la somma delle parti costa meno delle
parti sommate.
Se prendiamo le specifiche tecniche di un computer di marca e cerchiamo di ricostruirlo
comprando i singoli componenti con le stesse caratteristiche e della stessa marca, o di
marca equivalente, ci accorgeremo di spendere almeno un terzo di meno. E’ quella parte del
prezzo di vendita destinato alle spese di gestione aziendale del produttore di computer, al
canale di distribuzione ed alla pubblicità.
Lo svantaggio principale è che sul computer che avremo sulla scrivania non compare una
marca ben conosciuta, dotata di un canale di assistenza tecnica. Per eventuali guasti in
garanzia, saremo legati al singolo rivenditore, mentre con un computer di marca ci potremo
rivolgere anche ad un centro di assistenza di un’altra città. Se il rivenditore chiude, la nostra
garanzia non varrà più nulla.
Per cercare di ovviare a questo pericolo, sarà bene chiedere che i singoli componenti del
personal assemblato siano di marca conosciuta, pagando leggermente di più. In questo
modo, quand’anche il rivenditore fosse irreperibile, il disco rigido di marca XYZ può essere
portato a riparare presso i centri di assistenza XYZ. Anche se queste prestazioni in garanzia
sono da verificare volta per volta.
Assemblaggio fai-da-te
L’alta standardizzazione ha reso più facile l’assemblaggio dei personal anche alla singola
persona, a patto che abbia tempo e voglia di risparmiare. Comprare i diversi componenti e
assemblare in casa il proprio personal, infatti, porta ad un risparmio di quasi la metà rispetto
all’acquisto di un personal di marca importante, ed almeno un terzo rispetto ai personal di
marche meno conosciute o assemblati da rivenditori. Apre inoltre la possibilità di effettuare
molto più facilmente e rapidamente gli upgrade, cioè, ad esempio, l’espansione della RAM.
Il lavoro non deve spaventare, in quanto non è più necessario, come una volta, lavorare di
cacciavite e saldatore. I componenti attuali si connettono fra di loro molto velocemente e non
occorre nessuna competenza elettronica, informatica o elettrica. L’unica cosa importante è
comprare i giusti componenti, in modo da non trovarsi con una mother board sulla quale non
si possa montare la CPU e la RAM acquistata.
31
CPU
Occorre partire dalla CPU. Di quale processore abbiamo bisogno? Quale velocità?
Esistono processori di marca Intel (i più famosi e diffusi) e processori compatibili (e due altri
produttori di CPU sono AMD e Cyrix, di recente fuse in un’unica società).
I processori Intel sono di tipo Pentium III, o IV, oppure processori economici Celeron, mentre
i corrispettivi AMD si chiamano Athlon, AthlonXP (noti anche come K7) e Duron (K6).
Rimandiamo al cap. 2.XX per la descrizione dei processori e delle relative caratteristiche.
Qui facciamo presente che, oltre ad avere diverse prestazioni, questi processori hanno
anche diverse piedinature e richiedono diversi tipi di mother board. Ma attenzione: il fatto
che due processori siano “fisicamente” compatibili, avendo lo stesso tipo di piedinatura, non
vuol dire che possano essere intercambiabili sulla stessa mother board. Controllate sempre
che il processore che intendete acquistare sia compatibile con la scheda madre che avete a
livello di Front Side Bus e di moltiplicatore, in modo da sfruttatrlo alla frequenza ottimale.
Considerate quindi le prestazioni di cui avete bisogno (operazioni matematiche, grafiche,
multimediali, di rete...). Una volta scelta la CPU adatta (magari anche in base al prezzo),
scegliete la mother board adatta.
Mother board
La mother board deve rispondere alle richieste della CPU, ma a sua volta ha altre
caratteristiche e pone altre condizioni.
Innanzi tutto di spazio: è di tipo ATX o di tipo Baby? Ne dipenderà le dimensioni della case
destinata ad ospitarla.
Su che chip set si basa: per Pentium II, IV, o per Amd?Con che tipo di memorie? E
soprattutto, può ospitare la CPU prescelta, sia come tipo che come velocità?
Le porte sono quasi sempre 2 seriali ed una parallela, almeno due USB e se siete fortunati
una porta FireWire ed i controller sono 2 di tipo EIDE (per hard disk, lettori di CD-ROM,
masterizzatori, unità a nastro...) ed uno FDD (per il lettore di floppy disk). Nelle mother board
più recenti i controller EIDE permettono la connessione di due unità ciascuno.
Nel montare le periferiche al controller EIDE è necessario verificare le rispettive velocità
delle periferiche se si vogliono montare sullo stesso controller. La velocità del singolo
controller dipende dalla velocità della periferica più lenta. Ecco quindi che se montiamo un
hard disk ed un CD-ROM sullo stesso controller e ci accorgiamo che l’HD ha prestazioni
inferiori al dovuto, è perché questo si deve adattare al CD-ROM più lento presente nello
stesso controller. Se si hanno più di due periferiche da collegare, conviene montare insieme
le due più veloci e lasciare sul secondo controller la o le periferiche più lente.
Che tipo di slot ha, e quanti? La quantità ed il tipo di slot deve accordarsi con la quantità di
schede da installare.
Quanta memoria RAM vi può essere installata, come valore minimo e massimo? E di che
tipo devono essere le schede RAM? DIMM, DDR oppure i veloci e costosi moduli
RAMBUS? Quale deve essere la velocità, quale la piedinatura, e di quale tipo?
RAM
I moduli di memoria si riconoscono subito fisicamente per la quantità di pin di connessione:
168 per le DIMM e 184 per le DDR. Questo è il primo requisito fisico per poter inserire il
modulo nella scheda madre.
Il secondo requisito è la frequenza di clock del Front Side Bus, anche se oramai tutte le
Dimm funzionano a 133Mhz.
Come la mother board deve rispondere con esattezza alle richieste della CPU, così i moduli
RAM devono rispondere alle richieste dalla mother board.
32
Costi
Se consideriamo pari a 100% il costo di un personal assemblato in casa, i costi dei diversi
componenti sono nella seguente proporzione: case e alimentatore 5%; CPU 17,5%; mother board
12,5%; RAM 10%; HD EIDE 15%; lettore CD-ROM 10%; drive FDD 5%; scheda audio 5%; scheda
video 5%; scheda SCSI 5%; tastiera 7,5%; mouse e cavi 2,5%.
Un personal con le stesse caratteristiche assemblato da un rivenditore costerebbe da 125% a 150%
ed un personal di marca da 150% a 200%.
33
Il microprocessore
Chiamato anche CPU, per Central Processing Unity, è l'elemento che determina le
caratteristiche e le prestazioni del computer. Tutta la capacità di calcolo e di elaborazione
sono condensati in questi pochi centimetri quadrati.
I microprocessori vengono catalogati per famiglie, indipendentemente dalle prestazioni.
Appartenere ad una determinata famiglia vuol dire condividere l'architettura, cioè la struttura
logica interna.
In genere il membro più recente della famiglia contiene nella sua architettura quella dei
modelli precedenti, di modo che ne sia l'erede legittimo. Il software che funzionava con i
microprocessori precedenti, funziona anche con il nuovo.
Ogni modello di microprocessore è contrassegnato da una sigla che rappresenta la famiglia
cui appartiene e il suo posto nella famiglia. Abbiamo, ad esempio, la famiglia di
microprocessori 80x86. Derivati dall’8088 a 8 bit, il capostipite è stato il 8086, seguito da
80286, 80386 ed infine da 80486. Il processore successivo della gamma non si poté
chiamare 586 per una questione di marchi registrati, per cui la generazione successiva si
chiamò Pentium, che fu poi aggiornato con le funzionalità MMX (MultiMedia eXtensions)
al quale fece seguito il Pentium Pro (686) e il suo gemello con le istruzioni MMX Pentium
II, poi i Pentium III prodotti con due forme fisiche e due architetture differenti (SECC, o
cartuccia e FCPGA, o socket, a 0,18 e 0,13 micron), in contemporanea ad essi uscirono i
Celeron, versioni economiche derivate dai Pentium II, e infine i Pentium IV desktop e Xeon
(per server). L’ultima generazione di processori Intel è a 64 bit, segue l’architettura IA64 e
viene chiamata Itanium. Questa è la famiglia dei microprocessori usati dai computer DOS
compatibili.
I computer Macintosh usano quelli della famiglia 680x0, dal 68000 al 68020, 68030 e 68040.
Anche in questo caso la sigla della famiglia viene scritta con una "x" al posto della quale
ciascun modello porta il proprio numero d'ordine. Più questo numero è alto, maggiori sono le
prestazioni del microprocessore. Casualmente, in queste due famiglie il modello con la "1"
non è stato utilizzato in nessun computer.
Caratteristiche tecniche
La velocità di elaborazione viene misurata in MegaHertz, cioè in milioni di cicli al secondo.
Questa però non è l’unico parametro da tenere in considerazione per valutare le prestazioni
di un processore. Quando si legge che un microprocessore ha una velocità di 800 MHz, vuol
dire che compie 800 milioni di cicli al secondo. In ogni ciclo, un impulso di dati transita fra un
contatto e un altro all’interno del microprocessore. La velocità in cicli al secondo, in MHz,
non può però dare una concreta misura della velocità di un microprocessore. Ogni comando
che il microprocessore deve eseguire richiede, infatti, alcuni cicli per essere portato a
termine. Per molte istruzioni bastano due cicli, mentre alcune ne richiedono alcune diecine.
Inoltre comandi sono in un linguaggio molto sintetico, chiamato linguaggio macchina, ma
sono pur sempre numerosi. Il 80286 ne ha 120, nel 80386 sono 155 ed infine sono 250 nel
80486. Ciò complica il lavoro del microprocessore in quanto più sono i comandi più è
complesso il compito di interpretarli.
Un microprocessore che abbia una velocità in MHz doppia di un altro, non è detto che
svolga istruzioni al doppio della velocità. Pur essendo maggiore la velocità del
microprocessore, la sua velocità effettiva di lavoro non è aumentata in modo proporzionale.
Soprattutto se l'architettura interna è meno efficiente, a causa dell'alto numero di comandi o
di una concezione qualitativamente inferiore. Oppure il suo linguaggio macchina richiede un
più alto numero di cicli per l'esecuzione di ciascun comando. Un altro parametro da tenere in
considerazione è la frequenza del Front Side Bus, cioè la frequenza del collegamento tra la
memoria RAM e il microprocessore. Ad ogni ciclo del FSB una “pagina” di dati viene
scambiata tra RAM e processore, pronta ad essere elaborata. Questo parametro, che
solitamente non è pubblicato nei listini, è un parametro legato all'architettura della classe di
processori. Ciò e tanto più vero quando si vanno a confrontare microprocessori
appartenenti a diverse famiglie, quindi con architetture e linguaggi macchina diversi. Un’altra
caratteristica di cui va tenuto conto è la quantità di memoria cache presente sul processore.
I processori dal 486 in poi hanno 16 byte di memoria cache di primo livello (L1), ma dal
Pentium si è cominciato ad incorporare nei processori anche la cache di secondo livello(L2).
Si tratta di uno speciale modulo di memoria RAM, quindi che si cancella ad ogni
34
spegnimento, ma che non è direttamente utilizzabile per caricare programmi da eseguire
come la normale RAM. Questa memoria aggiuntiva funziona alla stessa velocità del
processore, quindi è molto più veloce della RAM di sistema, e viene utilizzata per tenere in
memoria i dati a cui il processore accede più spesso o di cui il processore prevede di farne
uso a breve tempo. Ad una nuova richiesta di caricamento di quei dati, il sistema operativo
esamina il contenuto della scheda cache e solo se non vi trova il file richiesto ne effettua la
lettura da RAM o disco. Se quella frazione di programma o documento era stata
recentemente utilizzata, è già presente nella cache e quindi il sistema operativo ne effettua il
caricamento senza alcuna lettura esterna. Essendo il caricamento da memoria cache di
gran lunga più veloce di quello da RAM e da disco, ne deriva la conseguenza che la
presenza di una scheda di memoria cache velocizza le operazioni.
Processore
Intel Celeron
Intel PIII SECC
Intel PIII FCPGA
Intel PIV
Frequenza Massima
1400 Mhz
500 Mhz
1333 Mhz
2800 Mhz
AMD K6 (Duron)
AMD K7 (Athlon)
AMD Athlon XP
Intel Xeon
Intel Itanium
1300 Mhz
2400 Mhz (2800+)
2400 Mhz (2800+)
2800 Mhz
733-800-900 Mhz 1 Ghz
Freq FSB
100 Mhz
100 Mhz
133 Mhz
400-533 Mhz (DDR)
2 channel
100Mhz (200 Mhz DDR)
200-266 (DDR)
266-333 (DDR)
400 Mhz
200 DDR
Cache
128 Kb
256 Kb
256 Kb
512 Kb
128 Kb
256 Kb
256 Kb
512 Kb
2 Mb
Microprocessori RISC
Nelle più recenti famiglie di microprocessori il numero dei comandi è stato portato a poche
diecine: sono rimasti solo i comandi corrispondenti alle operazioni principali, ed hanno una
struttura molto semplice. La gran parte delle operazioni viene così eseguita in un solo ciclo e
l'architettura interna è stata resa più efficace. Questo tipo di microprocessori viene chiamata
RISC, dall'inglese Reduced Instruction Set Computer, in contrapposizione al vecchio tipo,
chiamato CISC, Complex Instruction Set Computer.
Mentre, ad esempio, il linguaggio macchina del 8086 possiede più di 100 comandi e quello
del 68000 possiede 55 comandi, quello del MIPS RISC ne ha solo 22. D'altra parte, nella
maggior parte dei programmi vengono utilizzati effettivamente solo il 20% dei comandi
esistenti nei microprocessori CISC.
Un certo numero di istruzioni, le meno importanti, che prima corrispondevano ad un
comando che è stato abolito, richiedono ora una successione di comandi principali per
essere eseguite. Ma essendo poco frequente l'uso di queste istruzioni, non ha conseguenze
sulle prestazioni del microprocessore.
Microprocessori RISC della nuova generazione, come lo i860, hanno una architettura
interna che permette l'esecuzione contemporanea di istruzioni. Ad ogni ciclo vengono
eseguite un numero istruzioni.
Il microprocessore RISC sarà il cuore dei personal dei prossimi anni. L'unico ostacolo è l'alto
costo, ma molti produttori di personal, come IBM ed Apple, stanno investendo milioni di
dollari nella ricerca scientifica per la messa a punto di un RISC meno costo ed ancora più
efficiente. Attualmente microprocessori RISC sono utilizzati prevalentemente in alcune
schede grafiche per l'elaborazione di immagini fotografiche a colori ed in stampanti laser ad
alte prestazioni.
35
Considerazioni finali
Se è il microprocessore che determina le caratteristiche di un computer, vediamo come
possiamo identificarli:
Processore Intel
8088
8086
80286 (286)
80386 (386)
Bus dati
8 bit
16 bit
16 bit
16 bit reali / 32 bit virtuali
80486
Pentium
Pentium MMX
Pentium Pro
Pentium II e
Celeron
Pentium III
SECC
Pentium III
FCPGA
32 bit reali
32 bit reali
32 bit reali
32 bit reali
32 Bit reali
Frequenza FSB
4,77 – 8 Mhz
8 Mhz
12-16 Mhz
16 –20 mhz (386SX)
25 – 33 Mhz (386 DX)
25 –33 Mhz di FSB *
FSB a 33 Mhz **
FSB a 33 Mhz ***
FSB a 66 Mhz
FSB a 66 Mhz
32 Bit reali
FSB a 100 Mhz
32 bit reali
FSB a 133 Mhz
Data di introduzione
1981
1984
1987
1989
1991
1994
* con i processori overdrive che moltiplicavano la frequenza i 486 DX arrivavano a 50, 66 e
100 Mhz
** i Pentium utilizzavano già il moltiplicatore esterno e raggiungevano le velocità di 120 Mhz
*** Velocità reali fino a 266 Mhz, i Pentium MMX ebbero cloni da AMD, Cyrix e IBM e furono
utilizzati per lungo tempo
Clock
Tutte le operazioni che avvengono in un computer sono composte da impulsi elettrici. Questi
impulsi vengono emessi ad intervalli regolari da un processore clock, vero e proprio cuore
che batte nella scheda madre. Gli impulsi del clock servono a scandire tutte le elaborazioni
dei vari processori e tutti i passaggi di dati.
In particolare è il clock che impone la velocità al microprocessore. La velocità a cui oscilla il
clock, in MegaHertz, deve essere uguale a quella che il Front Side Bus, cioè il collegamento
esterno del Processore, può sostenere. Non è quindi possibile togliere un microprocessore
lento e sostituirlo con uno più veloce su una scheda madre che abbia un clock con
frequenza pari alla velocità più lenta. O meglio: il microprocessore funzionerebbe, ma alla
velocità del clock.
Il clock non deve essere confuso con l'orologio presente su gran parte dei computer, che
invece serve solamente a registrare l'ora e la data per ogni registrazione di dati su disco.
Per poter conservare il calcolo del tempo anche a computer spento, l'orologio è alimentato
da una batteria cambiabile o autoricaribile. Il clock non ha bisogno di funzionare a computer
spento.
36
La memoria
In ogni personal computer vi sono due tipi di memoria:
• una memoria di archiviazione, che serve a registrare il sistema operativo, i programmi ed i
documenti. Questo tipo di memoria conserva permanentemente le informazioni registrate.
Sono memorie di archiviazione il disco rigido, i dischetti, i CD-ROM... (vedi capitolo “Le
unità di memoria di massa”);
• una memoria di lavoro, che serve per accendere il computer, per caricare il sistema
operativo e per lavorare con i programmi ed i documenti. La memoria di lavoro è costituita
da chip montati sulla scheda madre o su moduli aggiuntivi.
La memoria di lavoro si divide in due parti:
• memoria ROM, che serve ad accendere il personal;
• memoria RAM, che serve a lavorare.
Quando si accende un personal, si attiva la memoria ROM, che da vita al computer e che
provvede a caricare il sistema operativo dal disco rigido (memoria di archiviazione) alla
memoria RAM. Qui il sistema operativo si installa e “prende possesso” del computer.
Quando vogliamo lavorare con un programma, cioè quando lo mandiamo in “esecuzione”,
oppure quando “apriamo” un documento per modificarlo, il sistema operativo legge dal disco
rigido il programma e/o il documento e li carica nella memoria RAM. Qui possiamo lavorare
con il programma, modificare un documento, crearne uno nuovo.
Tutto il lavoro sui documenti si svolge nella memoria RAM e deve essere considerato
provvisorio finché non venga “salvato”, cioè non si chieda al sistema operativo di registrare il
lavoro effettuato su un disco rigido o su un’altra memoria di archiviazione.
La memoria RAM, infatti, deve essere continuamente tenuta in vita da impulsi elettrici ed in
mancanza di questi, quando il computer viene spento, perde tutti i dati caricati. Per questo la
memoria RAM viene chiamata “volatile”: basta poco, una mancanza di elettricità, qualcuno
che inciampa nel filo della corrente, perché tutto il lavoro svolto fino a quel momento
scompaia come una scritta sulla sabbia per un colpo di vento.
La memoria ROM, invece, servendo proprio ad accendere il personal, rimane sempre
inalterata.
Memoria ROM
La memoria ROM, dall’inglese Read Only Memory, è un tipo di memoria permanente, non
“volatile”, e che non può essere modificata dall’utente del computer.
Quando il computer ci viene venduto possiede già una piccola dotazione di software intallato
nella memoria ROM. Software, ripetiamo, che è registrato permanentemente e non può
essere né cancellato, né modificato.
Memoria RAM
Oltre ai chip della memoria ROM, che è di sola lettura, esistono altri chip di memoria.
Questa volta si tratta di memoria vuota, a disposizione dell’utente. Anzi: a disposizione del
computer, il quale ha necessità, per poter eseguire un programma ed elaborare dei
documenti, di caricare in memoria sia il programma che i documenti.
Questa memoria viene chiamata RAM, dall’inglese Random Access Memory, cioè “memoria
ad accesso casuale”. Il che non vuol dire che il computer carica programmi e dati “dove
capita, capita”, ma sottintende una procedura molto più complessa di quella che il nome
lascia intendere.
Se diamo ad un computer il comando di eseguire un determinato programma, questo viene
letto dal disco e caricato nella memoria RAM. La proprietà “casuale” della memoria RAM
viene fuori quando inizia l’esecuzione del programma.
Tutti i programmi sono composti da vari spezzoni, ognuno dedicato ad un’attività diversa. Ci
sarà uno spezzone per la visualizzazione su schermo, un altro per l’elaborazione del testo,
altri ancora per l’effettuazione di calcoli o la creazione di grafici. Ogni spezzone è stato
caricato in memoria l’uno dopo l’altro senza suddivisione, ma in una parte apposita del
37
programma sono “dichiarate” le lunghezze dei vari spezzoni.
Quando si verifica il bisogno di uno spezzone, il computer non è costretto a leggersi tutto il
programma dall’inizio alla fine. Sapendo dove inizia il programma e la lunghezza dei vari
spezzoni, è semplice andare direttamente a leggere nel punto giusto. Né conta se quel
programma è stato registrato in una parte od in un’altra della memoria. “Casuale”, in questo
caso, è contrapposto a “sequenziale” e vuol dire semplicemente che si può andare a leggere
una qualsiasi posizione di memoria.
Volatilità della RAM
Non soltanto la memoria RAM è vuota quando acquistiamo il computer, ma anche tutte le
volte che lo accendiamo. In essa, infatti, non è possibile conservare permanentemente un
programma. La RAM è “volatile”: ha bisogno continuamente della corrente elettrica che
alimenta il computer, altrimenti perde il suo contenuto.
Del resto i programmi che utilizziamo sul nostro computer sono molti: se ognuno di essi
venisse tenuto per sempre in memoria, ben presto dovremo iniziare ad aumentare
incessantemente i chip di memoria per poter ancora lavorare. Quindi, molto semplicemente,
quando spengiamo il nostro computer, tutto quello che è stato caricato nella memoria RAM
viene cancellato.
Riguardo ai programmi, nessun problema. Essi sono registrati sul disco rigido e, volendo di
nuovo lavorare con quel programma, basta chiederne l’esecuzione ed il sistema operativo
provvede a caricarlo in memoria RAM. Il problema sorge per i documenti. Se abbiamo
creato un documento nuovo, o modificato uno già esistente, il documento si trova ancora in
memoria RAM. Spengere il computer in questo momento provoca la cancellazione della
memoria RAM e quindi la perdita di tutto il lavoro che non abbiamo provveduto a registrare
sul disco rigido.
Lo spegnimento del computer potrebbe anche non essere volontario: il contatore che salta,
un blackout della corrente, un collega che inciampa nel cavo e stacca la spina, sono
incidenti probabilissimi che causerebbero la perdita di tutto il lavoro in corso e non ancora
registrato. E’ buona regola registrare frequentemente su disco rigido il lavoro che si sta
facendo, oppure subito dopo operazioni importanti di modifica.
Dimensione della RAM
La dimensione della memoria RAM è un elemento molto importante nella configurazione di
un computer, seconda solo alle caratteristiche del microprocessore. Più RAM abbiamo nel
computer, più questo potrà lavorare con programmi complessi ed elaborare un maggior
numero di dati.
Se la memoria RAM non basta a contenere un programma, questo non può essere
eseguito. Se il programma entra nella memoria, ma il documento sul quale vogliamo
lavorare non può essere caricato nella parte libera rimasta, il sistema operativo è costretto
ad effettuare continue operazioni di registrazione e di lettura del documento.
Il sistema operativo carica in memoria solo una parte di documento e, quando chiediamo di
andare avanti nel lavoro, la registra sul disco per poter leggere e caricare in memoria la
porzione successiva. Uguale impegno viene richiesto da programmi particolarmente
complessi che sono stati frazionati in un certo numero di file. Il sistema operativo, di volta in
volta, carica dal disco quello richiesto. Questo tipo di frazionamento è molto diffuso, perché
facilità la compatibilità verso macchine con memoria inferiore a quella teoricamente
necessaria. A livello fisico la memoria RAM viene venduta in barrette, che nei computer
moderni si chiamano DIMM (Double Inline Memory Module, Moduli di memoria a doppia
linea), e hanno 168 contatti nella versione SDRAM. Ciascun modulo contiene infatti una
doppia linea di chip di memoria e viene visto come se fossero due banchi di memoria. La
capacità varia tra i 64 e i 512 Mb per ogni modulo. I moduli non sono legati in alcun modo tra
di loro, quindi fino a raggiungere la massima capacità supportata dalla scheda madre,
possono essere mescolati a piacere. SDRAM significa Syncronous Data RAM, e sta ad
indicare che il trasferimento dei dati avviene in sincronia col clock di sistema. Esistono altre
memorie che possono essere utilizzate, anche se non mescolate con le SDRAM. Un tipo
molto utilizzato sono le memorie DDR (Double Data Rate) che funzionano teoricamente a
38
velocità doppia delle SDRAM poiché trasferiscono una doppia quantità di dati per ogni ciclo
del clock di sistema. Non sono compatibili nemmeno a livello fisico, avendo 184 contatti
suddivisi in due gruppi, mentre le SDRAM usano 168 contatti in tre gruppi. Le DDR sono
state sviluppate da AMD per i propri processori DDR (K6 ma soprattutto K7). Un ulteriore
tipo di RAM che si può incontrare, soprattutto nei PC di fascia alta, è la RDRAM, sviluppata
da RAMBUS (consorzio di Intel e Kingston) per i Pentium 4, ma poco implementata perché
molto costosa. Utilizza canali multipli a 400 Mhz e a 16 bit per comunicare col processore,
ciascun modulo occupa due piste di contatti ed eventuali piste libere devono essere “chiuse”
con un terminatore di tensione.
Memoria virtuale
Dovendo utilizzare più di un programma contemporaneamente, può darsi che la somma
della memoria RAM richiesta dai programmi superi la capacità della memoria RAM
installata. In questo caso è possibile simulare la presenza di una quantità superiore, anche
doppia o tripla, di RAM. Questa memoria “inesistente” viene chiamata “memoria virtuale”.
Per la creazione della memoria virtuale ci si può servire del sistema operativo (Windows ‘9x
e Macintosh 7.x) o di appositi programmi d’utilità. Il metodo di creazione della memoria
virtuale è, nei due casi, diverso.
Il sistema operativo utilizza principalmente il disco rigido. Quando abbiamo uno o più
programmi in memoria RAM e ne vogliamo caricare un altro, e la somma della memoria
richiesta dai programmi supererebbe la RAM fisicamente disponibile, il sistema operativo
registra su disco rigido i programmi non attivi (compresi gli eventuali documenti aperti con
quei programmi) e quant’altro sia possibile scaricare temporaneamente dalla RAM, per
lasciare posto al nuovo programma. Quando chiederemo di tornare a lavorare con uno dei
programmi precedenti, il sistema operativo scaricherà su disco il programma diventato
inattivo (compresi i documenti aperti) e caricherà nella RAM il programma richiesto.
Con questo metodo possiamo utilizzare più RAM di quella fisicamente presente nel
personal. Dovremo però pagare due pedaggi: meno spazio disponibile su disco e velocità
ridotta di lavoro.
Sul disco rigido, infatti, viene creato un file invisibile di sistema pari alla dimensione
complessiva della memoria virtuale. Se abbiamo installato RAM per 8Mb e, grazie alla
memoria virtuale, vogliamo fingere di averne 16Mb, il sistema operativo deve creare un file
di 16Mb su disco, riducendo lo spazio a disposizione per registrare documenti e software.
D’altra parte, tutte le volte che passeremo da un programma all’altro fra quelli mandati in
esecuzione, dovremo aspettare che il sistema operativo scarichi dalla RAM il programma
non più attivo e carichi il programma al quale abbiamo chiesto di passare.
Il metodo utilizzato dai programmi di utilità per la creazione della memoria virtuale è diverso.
Invece di ricorrere subito alla registrazione su disco rigido, il programma di utilità compatta i
programmi non attivi e li comprime nella stessa RAM. Questa operazione crea già
abbastanza spazio libero senza grosse perdite di tempo, non essendoci operazioni di
scrittura/lettura su disco.
I programmi, inoltre, occupano sempre meno spazio di quello che richiedono. Un
programma che chiede 4Mb di RAM, ad esempio, in effetti ne occupa anche la sola metà, in
situazione di inattività. L’utilità, da una parte comprimendo il programma, dall’altra
recuperando lo spazio non utilizzato, riesce a “ricavare” abbastanza memoria da ospitare
altri programmi.
Solamente a questo punto, se lo spazio ancora non basta, ricorre alla registrazione su disco.
Si tratta, però, della registrazione di dati compattati, e quindi le operazioni di scrittura/lettura
sono molto più veloci di quelle richieste dal sistema operativo.
Il file creato dal programma di utilità è a grandezza dinamica, cioè non occupa uno spazio su
disco pari al totale della memoria virtuale, bensì occupa uno spazio variabile a seconda
della necessità.
Con la memoria virtuale, quindi, possiamo caricare in memoria molti più programmi e
documenti di quanti la RAM fisica permetterebbe. L’unico requisito è che ciascun singolo
programma non superi, da solo, la capacità della memoria fisica. Se abbiamo 8Mb di RAM
espansa a 16Mb virtuali, non possiamo caricare nessun programma che, da solo, richieda
più di 8Mb. Possiamo caricarne tre da 4Mb ciascuno, ma non uno da 9Mb.
39
La scheda madre
La scheda madre è una parte essenziale del PC perché tiene insieme a livello fisico i vari
componenti ma in contemporanea permette la comunicazione tra il processore e le varie
schede di interfaccia e porte esterne.
Questo compito di coordinare l’accesso alle periferiche da parte del processore viene fatto
tramite un insieme di Chip chiamato CHIPSET, che è costituito principalmente da due chip,
chiamati Northbridge e Southbridge e rispettivamente utilizzati per far dialogare il processore
con la Ram e il processore con gli altri bus di sistema. Come si può intuire, ogni chipset è
costruito intorno ad un processore specifico (o meglio, una famiglia di processori), e può
supportare un tipo di memoria e un insieme di porte di comunicazione differenti. Avremo
così Chipset per Pentium 4 con Rambus, con DDR o con SDRAM, che supportano o non
supportano USB e FireWire, e poi Chipset per AMD con SDRAM o DDR e così via. I
produttori di chipset sono 4, Intel, Via, Sis e Soyo.
Sulla scheda madre sono presenti alcuni connettori, chiamati slot, in numero vario da
modello a modello, otto nella maggior parte dei casi. In questi connettori è possibile inserire
schede
con
impieghi
particolari.
Nei primi modelli di personal vi venivano inserite la scheda per il video, la scheda per il disk
drive, quella per la porta seriale, quella per la porta parallela, quella per il disco rigido.
Nei personal recenti gran parte di queste schede, o meglio, i loro componenti sono
incorporati nella scheda madre e quindi gli slot sono stati ridotti di numero o sono stati
lasciati
liberi
per
altri
usi.
Del resto oggi sarebbe improponibile commercializzare un computer non dotato di disco
rigido e di floppy disk, mentre la miniaturizzazione portata dall'avanzamento della tecnologia
ha consentito di inserire i componenti di queste schede già sulla scheda madre.
Ciò rende il computer più economico e più efficiente. Riduce inoltre le possibilità di acquisti
di schede inadatte al computer ed evita le complicate procedure di installazione.
Le schede incorporate nella scheda madre e quelle inserite negli slot, che si tratti di quella
video, un modem su scheda, o di una scheda per la connessione in rete, hanno uno
scambio di dati con il computer. Il percorso con il quale avviene questo scambio viene
chiamato bus dei dati, ed il modo nel quale lo scambio avviene può seguire diversi
standard. I più comuni, in ambiente PC, sono:
-
-
-
-
-
ISA, Industrial Standard Architecture, nata con i computer IBM di tipo AT, con
microprocessore 80286; ormai abbandonata, ha ampiezza di dati di 8 o 16 bit ed è stata
utilizzata come interfaccia tuttofare fino a poco tempo fa. Con la seconda generazione di
Pentium III è stata definitivamente abbandonata.
EISA, Enhanced Industrial Standard Architecture, adottata da molti computer DOS
compatibili, a 32 Bit, utilizzata per i controller dei dischi e le schede di rete ad alte
prestazioni sui file server (di classe 386).
VESA, introdotta con i 486, (Video Expert Standard Architecture), principalmente per
schede video e controlled ad alte prestazioni, otteneva i 32 bit di ampiezza di bus dati
aggiungendo un ulteriore slot in serie ad una porta ISA, quindi poteva essere usata sia
come ISA che come VESA
PCI (Peripheral Connection Interface) è la più diffusa ai giorni nostri, permette un bus
dati a 32 bit e il DMA, cié l’accesso diretto alla memoria. Tutte le schede interne,
oggigiorno sfruttano il BUS PCI. I controller dei dischi e delle porte esterne sfruttano un
Canale PCI non associato a nessuno slot.
AGP (Accelerated Graphic Port), è un canale, più che un BUS, per il collegamento di
una scheda video alla Main Board. Permette al processore grafico di utilizzare parte
della RAM di sistema per le proprie elaborazioni. Non ci può essere più di uno slot AGP
per ogni MainBoard, così purtroppo le schede madri che usano chip grafici integrati non
hanno possibilità di espansione.
40
Poiché tutto il traffico di segnali, all'interno della scheda madre, è temporizzato dal clock,
anche questo scambio di dati fra scheda madre e schede negli slot avrebbe dovuto essere
sincronizzato. In realtà non è così. Il fatto è che le velocità dei clock nei personal variano
moltissimo, come abbiamo visto. Ad esempio, si passa dai 4,77MHz, agli 8MHz, ai 12MHz,
per
salire
ai
16MHz,
ai
20MHz
ed
ai
33MHz.
Tuttavia la gran parte delle schede esistenti non potrebbe funzionare alle velocità più
elevate, senza contare la tendenza di molti utilizzatori di personale che, cambiando
computer, vogliono conservare l'uso delle schede acquistate e non essere costretti a
buttarle via. Ecco quindi che i costruttori delle schede madri hanno dovuto inserire un
processore che funziona da filtro fra la velocità del clock e quella effettiva di scambio di dati
con
le
schede.
BUS Dati
Isa
Eisa
Vesa
PCI
AGP
Ampiezza del Bus
8/16 bit
32 bit
32 bit
32 bit
64 bit
Frequenza del Bus
8,33 Mhz
8,33 Mhz
25-33 Mhz
48,3 Mhz
66-133-266 Mhz (Base, 2x, 4x)
Riassunto caratteristiche dei bus più utilizzati
Oltre alla scheda video, a quella di interfaccia per i dischi ed a quella di rete, negli slot
possono essere inserite schede per i più svariati impieghi:
- elaborazione multimediale, che può ricevere e produrre un segnale video inviabile alle
normali apparecchiature televisive, come televisori, videoregistratori, banchi di mixaggio; o
che può ricevere, tramite un sintonizzatore, le immagini trasmesse dalle ordinarie stazioni
televisive;
- elaborazione fotografica, con il trasporto su pellicola per diapositiva delle immagini del
video e, viceversa, per la registrazione sul computer di immagini riprese con le moderne
macchine
fotografiche
a
dischetto
magnetico;
- ricezione satellitare, in grado di sintonizzarsi, tramite una antenna, sulle trasmissioni
provenienti
dai
satelliti
di
rilevamento
meteorologico;
- compressione dei dati, per la registrazione di documenti in forma compattata, permettendo
al disco rigido di contenere più dati di quanto sarebbe possibile. La scheda si occupa di
compattare in fase di registrazione e di scompattare in fase di lettura da disco, comportando
un
piccolo
ritardo
in
tutte
le
operazioni;
- accelerazione della capacità elaborative, con schede che contengano microprocessori più
veloci che si sostituiscano a quello del computer o che lo affianchino nei suoi compiti;
- elaborazione musicale, grazie alla quale è possibile gestire strumentazione musicale MIDI,
eseguendo musica sugli strumenti, registrandola su dischetto od elaborandola sul computer.
E' anche possibile, tramite un microfono, digitalizzare suoni di qualsiasi tipo, musica, voce;
- strumentazione di laboratorio per ogni scopo scientifico. Il computer può cosi guidare e
ricevere
dati
da
molte
apparecchiature
di
analisi;
- lavorazione industriale, come guida e controllo di macchinari robotizzati;
- riconoscimento della voce, per il riconoscimento dei comandi impartiti tramite espressioni
vocali.
Processore DMA
Il processore Direct Memory Access gestisce il flusso di dati fra la memoria del computer ed
alcune periferiche abilitate al DMA, alleggerendo il lavoro del microprocessore. Lo scambio
di dati con le periferiche è quindi più veloce, perché ha un diretto accesso in memoria e non
deve attraversare l'architettura del microprocessore.
41
Porte Esterne
Il computer deve comunicare i dati che elabora. Ad esempio, se il risultato di una
elaborazione deve essere stampato, i dati relativi vengono inviati alla stampante.
L'uscita di questi dati avviene attraverso alcuni connettori esterni presenti nella parte
retrostante del computer. Come si potrà verificare dai dati tecnici descritti nel manuale del
computer, sono presenti almeno una porta seriale ed almeno una porta parallela.
A queste porte vengono collegati tutti i dispositivi accessori, con i quali è necessario uno
scambio di dati in entrambe le direzioni. La differenza fra questi tipi di connettori va al di là
delle loro semplici dimensioni e dalla quantità di piedini presenti, e riguarda il modo in cui i
dati vengono trasmessi da e per le periferiche.
Gli impulsi di dati sono formati da singoli bit, ma l'unità minima significativa è il byte, cioè otto
bit.
Nella porta seriale, i dati che vengono trasmessi alla periferica sono inviati un bit alla volta: i
bit viaggiano in serie, l'uno dopo l'altro sullo stesso filo. Per trasmettere un byte, sono
necessari otto invii. Sono porte seriali le porte RS-232, le porte PS/2, le USB e le FireWire
Nella porta parallela, i dati che vengono inviati alla periferica sono trasmessi un byte alla
volta: i bit viaggiano insieme, parallelamente su otto fili. Per trasmettere un byte è
necessario un solo invio.
La porta seriale standard consente il transito dei dati in entrambe le direzioni, sia dal
computer alla periferica che dalla periferica al computer. L'utilizzazione principale di questa
porta avviene nel caso di collegamenti con periferiche attive, come mouse, modem, penne
ottiche. Questa porta viene gestita da un chip chiamato UART (Universal Asyncronous
Receiver Transmitter)
Tipo Uart
8250/8250b
16450
16550a/f
Velocità Max in Kbit/s
9600
19200
115000 (buffer fifo)
Molto spesso il connettore della porta seriale ha 9 punti di contatto, in altri casi 25: uno serve
per i bit in trasmissione, uno per i dati in arrivo, uno è per il collegamento a terra, gli altri per
lo scambio di particolari segnali fra le periferiche ed il computer. Questi segnali riguardano,
ad esempio, lo stato di "pronto a ricevere" della periferica o del computer e quello di
"richiesta di invio". Questi connettori sono spesso identificati con la sigla "RS232C".
A volte la porta seriale viene utilizzata per il collegamento di alcune stampanti e dei plotter,
anche
se
il
traffico
dei
dati
è
in
un
senso
solo.
Il traffico dei dati attraverso la porta seriale può avvenire a diverse velocità e con diverse
sequenze di bit. In particolare, poiché spesso lo scambio dei dati avviene a distanza di
qualche metro, è necessario prevedere anche lo scambio di alcuni segnali di controllo che
permettano di verificare che i bit ricevuti siano uguali a quelli trasmessi. L'interferenza di
macchinari elettrici, come monitor, computer o stampanti, potrebbe danneggiare il flusso dei
bit
durante
il
loro
viaggio
lungo
il
cavo.
La velocità di trasmissione, la struttura dei pacchetti di bit inviati ed il tipo di controllo
effettuato, determinano il protocollo usato nella trasmissione dei dati. I diversi protocolli sono
stabiliti internazionalmente.
La porta seriale consente anche il collegamento fra computer, sia direttamente tramite un
cavo, che a lunghe distanze, tramite modem. In entrambi i casi è molto importante stabilire
in precedenza il protocollo di trasmissione da entrambe le parti. In particolare, la
trasmissione dei dati può variare in velocità da 96.000 bit al secondo nella comunicazione
diretta fra due computer, a 300 bit per secondo quando si tratta di computer distanti e la
comunicazione è effettuata tramite linea telefonica. La comunicazione più frequente, tramite
modem,
avviene
a
2'400
oppure
a
1'200
bit
per
secondo.
42
La porta parallela consente il transito in una sola direzione: dal computer alla periferica.
Viene quindi usata quasi esclusivamente per il collegamento con le stampanti.
I connettori della porta seriale hanno 25 oppure 36 punti di contatto, otto dei quali per l'invio
dei dati e gli altri per l'invio e lo scambio di segnali. Anche se non può ricevere dati, la porta
parallela può ricevere segnalazioni dalla periferica, come il segnale di "occupato" o quello di
"carta esaurita". I connettori della porta parallela sono spesso identificati con la scritta
"Centronics". La porta parallela consente una maggiore velocità di trasmissione, in quanto
ciascun byte viene trasmesso in una sola volta. Per questo è preferibile nell'uso con
dispositivi lenti, come le stampanti. La trasmissione parallela non consente però un controllo
sulla identità fra i dati trasmessi e quelli ricevuti. Quindi, pur consentendo una maggiore
velocità,
permette
solo
collegamenti
a
breve
distanza.
La trasmissione parallela non ha protocolli ma tre modalità di funzionamento, di cui due
bidirezionali.
La modalità SPP (Standard Parallel Port) è monodirezionale e raggiunge 150 Kb/s di
velocità
La modalità EPP (Enhanced Parallel Port) è bidirezionale, usa un canale IRQ per indicare
al processore che ha bisogno di attenzione e trasmette i dati a 500 Kb/s. E’ usata per
stampanti e scanner.
La modalità ECP (Enhanced Communication Port) è bidirezionale, oltre al canale IRQ
necessita di un canale DMA e raggiunge i 2 Mb/s. E’ usata per stampanti e unità a dischi
esterne.
Le ultime schede madri possono supportare le porte Parallele in modalità mista ECP+EPP e
decidere quando usare una modalità e quando l’altra.
USB
USB (Universal Serial Bus) è la porta tuttofare di nuova generazione, e dai sistemi basati su
Pentium II è presente su tutti i PC. Ciascuna porta USB supporta fino a 127 periferiche in
cascata, collegate tra di loro tramite HUB (concentratori), ed esiste in tre versioni. La verione
più commercializzata è la USB 1.1, in due velocità, 1,5 Mbit/s e 12 Mbit/s. La versione
moderna, ancora poco commercializzata, la USB 2.0 arriva a 480 Mbit/s, ma non è
compatibile in modalità mista con la USB 1.1.
I connettori USB sono autoalimentati, composti da 4 cavetti, due per i dati e due per la
tensione (12V, 5 mA), anche se per connettere periferiche che assorbono tanta energia è
necessario utilizzare hub alimentati o meglio periferiche autoalimentate.
FireWire
Le periferiche FireWire sono state introdotte al grande pubblico da Apple sui suoi iMac.
Sono un bus più veloce rispetto alla USB 1.1 e vengono utilizzate prevalentemente con unità
di memoria di massa, come ad esempio Hard Disk esterni o videocamere digitali. Supporta
fino a 63 periferiche alla velocità di 400 Mbit/s e non ha necessità di un PC per funzionare.
E’ implementato soprattutto sulle videocamere in formato digitale miniDV, in quanto
permette il trasferimento del filmato digitale e il montaggio in tempo reale tra Videocamera e
Videoregistratore o PC. Al momento sono ancora abbastanza costose e poco implementate
in fabbrica, anche se alcuni modelli di iMac vengonovenduti con queste porte già
incorporate.
Firmware e BIOS
Questo software viene chiamato firmware, cioè saldo, fisso, e comprende anche tutte le
basilari istruzioni utilizzate dai programmi per avere accesso ai diversi componenti hardware
come il video, il mouse, le porte di comunicazione ed i dischi floppy o rigidi.
43
Fa parte del firmware, ad esempio, il BIOS, cioè quel gruppo di istruzioni che consente ai
diversi processori di attivarsi al momento dell’accensione del computer, di rispondere agli
impulsi del clock e di effettuare un piccolo autotest di funzionamento. Infine viene letto il
sistema operativo presente sul disco rigido e, dopo essere stato caricato nella memoria
RAM, gli viene ceduto il controllo del sistema.
La ROM è definita nella configurazione base di ciascun computer e la sua grandezza non ha
molto a che vedere con le prestazioni del personal, con la sua velocità di elaborazione o la
sua potenza. Per quanto riguarda il firmware, esso viene installato dalla ditta costruttrice
della macchina e non è modificabile.
Anche se spesso la presenza e la quantità della memoria ROM sulla scheda madre o sulle
schede accessorie viene evidenziata nei manuali o nei depliant dei computer, l’utente non
ha alcun beneficio nel conoscerne le dimensioni o le caratteristiche. L’attività del firmware
presente nella memoria ROM è del tutto invisibile.
Nei personal più vecchi era necessario sostituire la ROM, per sostituire il firmaware
contenuto, quando si voleva aggiungere un dispositivo hardware che non era previsto
quando era stato costruito il computer ed installato il firmware. E’ una operazione, ad
esempio, che deve fare chi voglia collegare un disco da 3,5 pollici ad un vecchio computer
con 8086, nato quando questi non esistevano ancora e si usavano i dischi da 5 e 1/4.
Con i sistemi attuali, invece, tale funzione di compatibilità con periferiche nuove viene svolto
da porzioni del sistema operativo chiamati “driver”. Ogni periferica nuova che si collega al
computer (stampanti, unità di memoria di massa, schede...) richiede che venga intallato il
proprio driver nel sistema operativo e non necessita più modifiche alla ROM.
Oltre alla memoria ROM presente sulla scheda madre, un computer può avere anche altra
memoria ROM inclusa in schede specializzate inserite nei connettori. Questo tipo di schede
hanno spesso bisogno di un programma apposito per poter svolgere le proprie funzioni.
Niente di più naturale, ed economico, che includere questo programma in una ROM che,
saldata alla scheda stessa, non corre il pericolo di danneggiarsi o di essere persa come
potrebbe accadere ad un dischetto.
Flash-ROM e Boot-ROM
In alcuni personal, da scrivania o portatili, vengono inserite memorie ROM speciali,
contenenti parti del sistema operativo come firmware. Queste ROM vengono chiamate
Flash-ROM o Boot-ROM, perché consentono di avviare il computer e di trovarsi pronti al
lavoro in pochi secondi.
Essendo, però, a sola lettura, queste memorie non consentono di aggiornare il sistema
operativo, se non con la sostituzione delle ROM stesse, sempre che il produttore abbia
mantenuto quel particolare modello di personal ancora in produzione.
In altri computer, ad esempio i notebook, nelle ROM non solo è stato inserito il sistema
operativo, ma anche alcuni programmi applicativi: un word processor, un foglio di calcolo, un
programma di agenda e appuntamenti ed uno per la gestione di una base di dati. Ciò
consente di eliminare il lettore dei floppy, il lettore di CD-ROM e parte del disco rigido,
alleggerendolo in peso ed in costi, ma vincola per sempre a non cambiare programma ed a
non poter fare aggiornamenti.
Il lato positivo dell’avere i programmi permanenti in ROM è di poterli richiamare in una
frazione di secondo e nel poter saltare dall’uno all’altro con un semplice tasto. In alcuni
notebook è possibile spengere il computer avendo sullo schermo un lavoro e, nel
riaccenderlo, trovare lo stesso lavoro allo stesso punto in cui l’avevamo lasciato. Inoltre,
eseguire un programma prelevandolo dalla memoria ROM comporta per il computer un
dispendio di energia molto inferiore di quello che sopporterebbe se dovesse eseguirlo da un
disco rigido.
44
La scheda video
Perché sia possibile la visualizzazione dei segnali del computer sullo schermo del monitor,
questi devono essere elaborati e trasformati in segnali video. Tutto ciò che appare sul
monitor viene inviato dal computer ad una scheda di interfaccia inserita in un connettore
oppure, nel caso dei computer portatili o dei computer desktop più semplici, integrata sulla
scheda madre. Le caratteristiche tecniche più importanti delle schede video sono: la
memoria RAM presente sulla scheda, il RAMDAC e il processore grafico (GPU) utilizzato
per l’elaborazione.
Il Processore Grafico (GPU)
Questo chip è il cervello della scheda video e controlla la generazione di immagini 2D/3D. I
processori grafici sostanzialmente devono “interpretare” i bit che vengono elaborati della
CPU per trasformarli in un segnale che possa essere inviato al monitor in maniera che
diventi comprensibile per l’utente. Le schede grafiche non accelerate avevano solo questa
funzione di “traduzione”, ma con l’avvento di Windows il sistema operativo cominciò a
gravare molto di più sulla CPU per migliorare la visualizzazione delle schermate e degli
elementi grafici, come pure i giochi realizzati si lanciavano sempre di più sulla “Realtà
Virtuale” Nacque così il BUS VESA e le schede con acceleratore grafico. Gli Acceleratori
grafici non erano altro che schede con una GPU talmente potente da elaborare per conto
suo i dati necessari per la creazione dell’ambiente grafico del sistema operativo
(accelerazione 2D) e per la creazione di immagini vettoriali in 3D (acceleratori 3D). Per un
certo periodo di tempo vennero venduti anche acceleratori 3D “stand Alone”, che
permettevano di migliorare l’elaborazione 3D prendendo il controllo dell’uscita Video VGA,
ma vennero presto sopraffatti da schede con GPU che potevano fare di tutto. Ai giorni d’oggi
ci sono 4 case produttrici di GPU: nVidia, Matrox, S3 e ATI. Tutte le schede video in
circolazione montano un chip prodotto da una di queste quattro case, anche se Matrox non
commercializza a terzi le sue GPU molto potenti e portate per applicazioni professionali.
LA Video RAM
La prima parte della scheda è costituita da una serie di chip di memoria RAM, nei quali
vengono caricati i dati che devono essere visualizzati sullo schermo. Questa memoria,
chiamata video RAM, ha una capacità che varia da 16Mb ad 128Mb.
La video RAM costituisce una specie di mappa geografica dello schermo. La visualizzazione
sul monitor avviene tramite l'accensione di punti luminosi sulla superficie interna dello
schermo: ogni parte della memoria rappresenta un punto sul video.
Quanta memoria sia necessaria come video RAM è determinabile solo in funzione di due
fattori: il numero dei colori usati e la risoluzione dello schermo.
I primi video avevano la capacità di visualizzare immagini solamente in un colore. Con
l'avvento dei monitor a colori si sono resi disponibili prima 8, poi 16, poi 256, quindi 65'536
ed infine oltre 16 milioni di tonalità.
Per risoluzione si intende l'accuratezza e la nitidezza delle immagini visualizzate. Se queste
sono formate da punti luminosi, più questi sono piccoli e vicini l'uno all'altro, più l'immagine
appare nitida. Maggiore è la quantità di punti, migliore è la risoluzione.
L'unità di misura della risoluzione è il punto, chiamato anche, dai professionisti della grafica,
pixel. Una risoluzione di 748 per 350 punti vuol dire che lo schermo è formato da un reticolo
di 748 punti di base e 350 punti in altezza: l'immagine che appare è composta da 261'800
punti. Con speciali schede è possibile avere una risoluzione di 2'048 per 2'048 punti, nel
qual caso l'immagine sullo schermo è composta da 4'194'304 punti.
I dati presenti nella video RAM vengono trasferiti al monitor, a seconda delle necessità di
visualizzazione, in modo che le immagini che essi rappresentano appaiano sullo schermo.
Il modo nel quale questi dati vengono interpretati per potere essere impressi sullo schermo,
viene determinato dall'adattatore grafico presente sulla scheda, che funziona da interfaccia
fra la video RAM ed il monitor. I dati contenuti nella memoria video vengono tradotti
dall'adattatore in una serie di istruzioni comprensibili dal monitor.
Adattatore e monitor devono "parlare" nello stesso linguaggio di istruzioni. Questo linguaggio
45
viene chiamato standard grafico. Lo standard grafico non è unico, ma varia a seconda delle
caratteristiche di visualizzazione che richiediamo al nostro computer.
Migliore è la risoluzione e migliore è la qualità dell'immagine che vediamo sullo schermo.
Ciò ha una notevole importanza sotto due aspetti:
- l'affaticamento della vista;
- le necessità di visualizzazione.
Se si deve lavorare molto davanti ad uno schermo e questo presenta immagini confuse e
sfocate, ben presto avremo dolore agli occhi e lacrimazione, e con il tempo un calo
nell'acutezza visiva.
Poiché non esistono grosse differenze di prezzo, è ormai consigliabile utilizzare computer
che adottano lo standard VGA. Se la visualizzazione dei colori non ha importanza, potremo
anche abbinare uno schermo monocromatico che, comunque, sfrutta l'alta risoluzione della
scheda.
L'uso di schede e monitor SVGA/UVGA non è ancora giustificato. Non essendo uno
standard molto diffuso, i prezzi sono ancora sostenuti, mentre la sua alta risoluzione è
eccessiva per l'utente normale: chi usa il computer per scrivere od elaborare dati non
percepisce la differenza fra una risoluzione di 720 per 480 punti ed una di 1'024 per 768
punti su un normale monitor da 14 pollici.
Il RAMDAC
Il RAMDAC è uno dei chip più importanti presenti sulla scheda Video e anche uno dei meno
noti. La sigla che lo contraddistingue significa RAM Digital-to Analog Converter, ed è il
chip preposto a controllare il flusso di dati in uscita sulla porta VGA, che è una porta
analogica. In pratica il RAMDAC converte i segnali digitali prodotti dalla GPU e contenuti
nella Video RAM in impulsi elettrici analogici necessari per pilotare il cannone del tubo
catodico. Maggiore è la frequenza del RAMDAC, più alta sarà la risoluzione supportata dalla
scheda e più alta la frequenza di refresh impostabile, monitor permettendo.
46
La scheda Audio
Per lungo tempo i personal computer sono stati semplicemente guardati e non ascoltati.
Nonostante le funzionalità audio integrate nei computer Macintosh suscitassero un notevole
interesse, la maggior parte dei primi PC compatibili IBM disponeva di una scarsa
propensione verso l'audio, tranne qualche bip proveniente dall'altoparlante integrato e la
sgradevole ripetizione di fughe di Bach eccessivamente semplificate. Molta acqua è passata
sotto i ponti. Una piccola società chiamata Creative Labs ha dato la voce ai PC grazie alla
propria scheda Sound Blaster. Da allora, le successive generazioni di Sound Blaster e
schede concorrenti hanno permesso di portare su PC una serie di funzionalità che vanno
dalla registrazione di audio digitale alla modifica e alla riproduzione. In questo processo il
vecchio telaio del PC si è trasformato in un mezzo cretivo e in un sistema di intrattenimento
alla portata di tutti. Negli ultimi anni, in molte applicazioni su PC le funzioni audio hanno
assunto la stessa importanza della grafica. Più recentemente, l'audio tridimensionale, una
caratteristica presente nelle schede più recenti, si è largamente diffuso sia nei film sia nei
giochi. Oggigiorno, qualsiasi PC multimediale è in grado di gestire riproduzioni e
registrazioni di audio digitale a livello di CD e di riprodurre brani musicali da file.
Se si esamina l'interno della maggior parte dei PC multimediali commercializzati prima del
1997, si noterà una scheda audio ISA all'interno del telaio. Nella maggior parte dei casi, la
scheda è una Sound Blaster. I sistemi più recenti non sempre dispongono di una scheda
separata in quando un piccolo chip sulla scheda di sistema offre la stessa funzionalità, cioè
la conversione di file digitali in impulsi elettrici analogici che l'altoparlante trasforma in suoni.
Tuttavia, le schede audio non hanno introdotto nei PC la possibilità di gestire audio digitale.
Dopo tutto, il primo PC IBM poteva riprodurre toni musicali con il suo grezzo altoparlante
inviando impulsi elettrici corrispondenti per frequenza e ampiezza al suono desiderato. Le
schede audio hanno introdotto i primi strumenti necessari per l'evoluzione verso la gestione
di sofisticate transazioni audio. I convertitori da digitale ad analogico trasformano i segnali
digitali in onde analogiche per gli altoparlanti. Al contrario, i convertitori da anologico a
digitale (ADC) accettano in input i suoni provenienti da un microfono o da una linea e li
convertono in sequenze di 0 e 1 per poterli memorizzare su disco rigido. La maggior parte
delle schede audio è costituita dai seguenti componenti:
• un convertitore da digitale ad analogico
• un convertitore da analogico a digitale
• un chip per l'elaborazione audio o di segnali digitali (Digital Signal Processing, DSP)
• un chip di amplificazione, per l'invio dei segnali ad altoparlanti non alimentati. Poche
schede comprendono un amplificatore, poiché quasi tutti gli altoparlanti per PC sono in
grado di amplificare i segnali in ingresso
• porte di input analogico per microfono, segnali di linea , CD audio e periferiche MIDI
• porte per l'output analogico per altoparlanti, segnali di linea e joystick.
Esistono tuttavia due tipi di files musicali, che vengono interpretati in maniera differente dalle
schede audio. I files più comuni sono delle onde audio campionate, e vengono elaborate
tramite il DSP in coppia con i convertitori analogico-digitali. Il secondo tipo di files sono i
Files MIDI (Musical Instrument Digital Interface), nati su stazioni di lavoro di strumentisti e
poi portati anche sui PC. Questi files permettono di specificare la musica come se fosse una
partitura (indicando lo strumento, altezza e durata della nota suonata, posizione dello
strumento rispetto all’ascoltatore). La qualità della riproduzione viene definita dai campioni di
onda degli strumenti memorizzati nella scheda audio o nell’apparecchiatura digitale. I file
MIDI sono scambiabili con moltissime apparecchiature, così è possibile per gli appassionati
creare la propria partitura MIDI sul PC di casa con una scheda schifosa e poi portarlo in uno
studio di registrazione professionale e far suonare la partitura MIDI come se fosse eseguita
da un’orchestra sinfonica.
47
Le unità di memoria di massa
Durante l’esecuzione di un programma, il programma stesso e tutti i documenti elaborati
risiedono nella memoria RAM. Ma la memoria RAM è temporanea: al cessare
dell’alimentazione elettrica non è in grado di conservare la magnetizzazione. Per poter
conservare i programmi ed i documenti è necessario ricorre ad un tipo di registrazione
magnetica permanente ed in grado di incamerare una grossa quantità di dati.
Le unità di memoria di massa assolvono a questo scopo. Più o meno capaci, più o meno
veloci, più o meno pratiche, hanno tutte la caratteristica di immagazzinare una quantità di
dati, a volte enorme, per un tempo indefinito, e di consentirne in qualsiasi momento la
rilettura da parte del computer con il successivo caricamento nella memoria RAM. Gli stessi
programmi non potrebbero essere commercializzati senza la possibilità di venderli
materialmente registrati su un dischetto.
Esistono unità di memoria di massa di ogni dimensione, capacità e per ogni scopo. Dal
disco sul quale sono registrati i giochi che si acquistiamo in edicola, al dischetto che
utilizziamo per trasferire il lavoro dal computer in ufficio a quello a casa, ai grossi dischi rigidi
che servono da archivio per le reti, ai leggeri dischi ottici o magneto ottici capaci di
conservare intere enciclopedie in pochi grammi.
La conservazione dei dati è possibile grazie alla loro struttura binaria. Le serie di zero e di
uno che compongono i bit, che a loro volta compongono i byte, trasformati in impulsi elettrici
nel loro viaggio all’interno del computer e dei suoi componenti, vengono conservato in forma
binaria. Disponendo di una superficie formata da una sostanza facilmente magnetizzabile,
un ossido metallico, è sufficiente creare un microscopico campo magnetico che alteri la
polarizzazione delle particelle. Andando a rileggere la polarizzazione, è possibile ricavarne
gli stessi impulsi elettrici che li hanno originati.
Un impulso elettrico positivo ha polarizzato in senso positivo una zona di ossido metallico.
Questa zona darà origine, tutte le volte che viene letta, ad un impulso elettrico positivo.
Caratteristiche tecniche
Le tecnologie principali di registrazione sono:
- magnetica;
- ottica;
- magneto ottica.
All'interno di questi tipi troviamo diverse categorie di unità di memoria di massa:
- dischi flessibili rimovibili;
- dischi rigidi fissi interni od esterni;
- dischi rigidi rimovibili;
- cartucce a nastro;
- Compact Disc;
- dischi ottici scrivibili.
48
Dischi rigidi
Il principio di funzionamento è identico a quello dei floppy disk e la tecnologia è magnetica.
Il disco rigido comprende in un unico dispositivo sia il supporto di registrazione magnetica
che la parte meccanica di motore e testine. Nella maggior parte dei computer è presente un
disco rigido nella configurazione di base, nel qual caso è compreso nella stessa unità
centrale e viene chiamo disco interno. Se il computer ne è sprovvisto, o se ne occorre un
altro per necessità di archiviazione, si tratta di una apparecchiatura autonoma, chiamata
disco esterno.
Il supporto di registrazione è formato da un disco di acciaio sul quale è presente la sostanza
di ossido metallico. Il disco di acciaio può essere singolo o multiplo, rendendo così maggiore
la capacità di archiviazione del drive.
La capacità di un disco rigido è nettamente superiore a quella di un dischetto su supporto
flessibile. I primi dischi rigidi avevano una capacità di 2Mb o di 5Mb. Con il diffondersi dei
personal e con il progresso tecnologico, i dischi rigidi sono saliti a 10Mb, 20Mb, 40Mb,
80Mb, 180Mb e così via. Oggi è comune trovare dischi di 100 Gb soprattutto per applicazioni
grafiche o come unità di memoria di massa per server di rete.
Un tipo di dischi rigidi, rispondenti allo standard SCSI, possono essere collegati ad uno
stesso computer utilizzano una sola scheda di interfaccia. Il primo disco è connesso al
computer, mentre i successivi sono collegati l'uno all'altro a catena, fino ad sette o quindici
unità.
I controller IDE e SCSI
I controller lavorano come agente del traffico, gestendo l'interfaccia fra le periferiche (disco
fisso, lettore CD-ROM, e altre componenti) e il sistema PC vero e proprio. Quando la CPU
richiede dati a un disco, per esempio, è il controller del disco a gestire la trasmissione della
richiesta al drive, e a restituire tramite il bus del PC le informazioni ivi reperite. Come è
accaduto per tutte le tecnologie dei computer, i controller hanno subito notevoli
miglioramenti nel corso degli ultimi anni. I controller originali dei PC erano schede hardware
inserite in un connettore a pettine (slot) della scheda madre e collegate alle unità a disco
tramite piattina a più conduttori. Col tempo i costruttori delle unità a disco hanno spostato i
circuiti elettronici sui drive, permettendo a questi di svolgere autonomamente una maggior
parte della gestione dei dati, e riducendo i controller a semplici meccanismi (un vigile dal
lavoro non troppo impegnativo). I controller attuali non richiedono più alcuna scheda per i
loro circuiti elettronici. I produttori hanno cominciato, infatti, a integrare questi semplici
controller direttamente sulla scheda madre, e su quasi tutte le schede madri dei nuovi PC
sono presenti ora i relativi connettori collegati alle unità a disco.
In qualità di canale di comunicazione primario fra la scheda madre del PC e le unità a disco,
il controller svolge un ruolo critico sulle prestazioni generali del sistema. Con l'aumento
progressivo delle dimensioni dei programmi e dei file dati, diventa essenziale realizzare
trasferimenti rapidi e affidabili fra sistema e drive. Fisicamente, un controller consiste di uno
o più circuiti integrati di controllo, altri componenti elettronici di supporto e un connettore per
collegarsi ai drive e alle periferiche. Il controller vero e proprio fornisce l'intelligenza
necessaria per comunicare con i vari drive e per gestire le transazioni senza disturbare
continuamente la CPU per ottenere risorse e permessi. I circuiti logici di supporto svolgono
funzioni quali fornire un deposito per i bit, che possono così venire elaborati senza il rischio
di perdite di dati. I controller intelligenti possono svolgere le transazioni più velocemente e
con minori interferenze con le altre attività del sistema. Una volta iniziata una transazione,
possono operare senza più bisogno di interventi della CPU. I dati possono così fluire
liberamente dal disco fisso alla memoria principale del sistema, mentre la CPU resta libera e
può gestire, per esempio, il ricalcolo di un foglio elettronico.
49
SCSI è la sigla di Small Computer System Interface. Man mano che passavano gli anni i
controller SCSI si sono evoluti. Una seconda versione di SCSI è stata chiamata Fast SCSI o
SCSI-2. Questa nuova versione offre il supporto a varie periferiche, oltre ai dischi fissi, e
aumenta il potenziale di trasferimento dati. Recentemente è uscita una nuova versione detta
Ultra SCSI (SCSI-3), che incrementa ancora di più la velocità di trasferimento dati.
La SCSI ha avuto il suo principio nel mondo dei Minicomputer, ma è stata poi portata su
Macintosh Apple dove è prosperata. Gli adattatori SCSI permettono di concatenare assieme
sette diversi tipi di periferiche (dischi fissi, scanner, stampanti e cosi via), tutti controllati da
una scheda adattatrice. Un adattatore SCSI-2, per esempio, fornisce 8 diversi indirizzi per le
periferiche, uno dei quali viene usato dallo stesso adattatore. Ne consegue che sette
periferiche distinte possono usare lo stesso controller. La flessibilità della SCSI va anche
oltre. Dei bridge controller sofisticati possono collegare sette periferiche per ciascun indirizzo
di periferica SCSI. Ciò significa che a un singolo adattatore SCSI si possono collegare fino a
49 periferiche. Si provi a paragonare questo numero col massimo di 4 periferiche ammesse
dall'IDE.
Gli elementi a sfavore che hanno condizionato molto la sua diffusione sono dovuti ai costi e
alla difficoltà d'uso.
IDE sta per Integrated Drive Electronics e originalmente è derivata dai dischi fissi del PC
IBM AT, il primo personal computer a 16 bit. Il vero nome dello standard è ATA (ATAttachment). Il significato della sigla IDE è molto appropriato. Queste unità infatti collocano
la maggior parte dell'elettronica del controller sul supporto del disco e non su una scheda
separata. Ne risulta un modello che riduce i costi di fabbricazione, e ha contribuito a farne
uno standard affermato nei PC. Anche lo standard IDE ha avuto vari miglioramenti col
tempo. La versione più recente e più diffusa viene detta EIDE (Enhanced Integrated Drive
Electronics).L'EIDE permette di avere un controller primario e uno secondario, a cui di
possono collegare fino a 4 periferiche. La formidabile diffusione che questo tipo di controller
ha avuto è dovuto al fatto che l'IDE era in linea con le specifiche BIOS che erano allora
presenti nella maggior parte dei sistemi. In pratica, la maggioranza dei sistemi sono dotati di
controller IDE integrati sulla scheda madre, che non richiedono nessuna installazione. I due
canali sono equivalenti tra di loro, mentre i due drives collegati su ciascun canale,
rispettivamente chiamati Master e Slave, hanno una priorità di utilizzo del canale (Prima i
Master poi gli Slave). Inoltre i controller IDE risultano molto mero cari dei controller SCSI.
Possiamo individuare gli svantaggi, oltre che nel limitato numero di periferiche supportate,
anche nella velocità di trasferimento dei dati che nonostante tutti i vari miglioramenti, rimane
al di sotto dello standard SCSI. L’estensione ATAPI (ATA Packet Interface) ha permesso di
controllare oltre a dischi fissi anche Cd-Rom, masterizzatori, lettori DVD e unità a dischi
estraibili.
Standard ATA
Velocità di trasferimento dati
PIO Mode 0
3,33 MB/s
PIO Mode 1
5,22 Mb/s
PIO Mode 2
6,66 Mb/s
PIO Mode 3
11,11 Mb/s
PIO Mode 4
16,66 Mb/s
UDMA2
33,3 Mb/s
Controller avanzati UltraATA
UDMA4 (FastATA, UDMA66)
66,6 Mb/s
UDMA5 (FastATA, UDMA100)
100 Mb/s
Tipiche velocità di trasferimento dati nel Bus ATA/IDE
A livello fisico i cavi ATA/IDE sono composti da 40 contatti e 40 fili, sono a forma di nastro
piatto e contengono tre connettori, due per i dischi e uno per il controller. I cavi utilizzati nei
sistemi UltraATA invece hanno 80 fili, di cui 40 di massa per stabilizzare il segnale, e
connettori colorati perché le specifiche prevedono posizioni standard sul cavo per Master,
Slave e Controller.
50
I dischi fissi
Un altro importante componente del PC è l'hard disk (disco fisso). All'interno di ogni sistema
troveremo sempre almeno un hard disk che ha il compito di mettere a disposizione sia alla
memoria di sistema che alla CPU le informazioni, sia in lettura che in scrittura. Ad esempio
quando si lancia un'applicazione per l'elaborazione testi, il programma eseguibile viene letto
dal disco fisso e caricato nella RAM. Poi, quando si apre un documento salvato in
precedenza, anche questo file viene letto dal disco e caricato nella RAM. Tutte le modifiche
che vengono apportare a quel documento vengono poi riscritte sul disco fisso quando si
salva il file. Linux e altri sistemi operativi fanno fare inoltre al disco fisso anche gli
straordinari, impegnandolo come serbatoio nel caso di superamento della capacità di
memoria RAM di sistema. Quando viene caricato un numero eccessivo di applicazioni e di
file, quelli usati meno di recente vengono nuovamente riscritti sul disco. Ai programmi si fa
intendere che i vari bit stiano ancora sulla RAM, ma quando i dati vengono richiamati il
sistema operativo ricava in realtà le informazioni dal disco fisso. Questo modo di operare,
chiamato memoria virtuale, amplia le funzionalità di tutti i PC, ma esige un caro prezzo in
termini di prestazioni: infatti nei trasferimenti di dati i dischi fissi sono 100 volte meno veloci
della RAM. Dal punto di vista fisico, l'hard disk opera in modo simile a un vecchi giradischi:
una serie di dischi di materiali ceramici o di alluminio svolge il ruolo dei vecchi dischi in vinile
su cui era registrata la musica. Ogni disco, o piatto, è ricoperto con una fine pellicola
magnetica detta thin film (strato sottile), su cui vengono scritti e letti i dati. Un motore, detto
spindle, fa ruotare i dischi a velocità che vanno da 5.400 a 10.000 giri al minuto. Una testina
di lettura/scrittura, che corrisponde alla puntina del giradischi, letteralmente "galleggia" sopra
ciascun disco a una distanza di qualche micron, leggendo o registrando minute cariche
magnetiche che vengono interpretate come 1 o 0. Per la registrazione dei dati, ciascun disco
è suddiviso in migliaia di piste circolari concentriche, a loro volta suddivise in settori. Il
settore è l'unità elementare più piccola della struttura del disco, e i bit registrati sono
indirizzabili in base alla loro posizione nel settore. Si ricordi che qui ci sono più dischi impilati
sullo stesso asse, ognuno suddiviso in sottili anelli concentrici detti tracce o piste. Le tracce
che risultano sovrapposte sui vari dischi nel loro insieme costituiscono un cilindro. La cosa è
importante perché, quando l'attuatore delle testine sposta una testina di lettura/scrittura su
una particolare pista di un disco, anche tutte le altre vengono spostate sulla medesima
traccia dei dischi corrispondenti. Quando una testina si sposta su una particolare traccia in
un disco, tutte le piste del medesimo cilindro sono pure accessibili allo stesso tempo.
Ultimamente siano andati incontro a molti problemi per quanto riguarda la gestione dei
dischi. Il primo metodo di indicizzazione dei dischi permetteva di riconoscere l’area in cui un
dato era memorizzato indicando le tre coordinate CHS (Cylinder, Head, Sector)
corrispondenti, dove i Cilindri erano delle zone concentriche del disco (come le tracce dei 33
giri), le testine indicavano quale piatto conteneva i dati cercati e i settori erano delle zone di
512 bytes in cui erano suddivisi i Cilindri. Questa architettura, però, aveva un limite. Quello
dei 504Mb (Binari, 528 Mb decimali) derivati dai limiti del BIOS (Massimo 16 testine), dello
standard ATA/IDE (63 Settori per traccia) e di DOS (1024 cilindri per traccia). Per superare
questo primo limite, uscirono delle nuove versioni del BIOS che supportavano una
“traduzione” dei parametri, estendendo il limite delle testine e traducendo un numero
maggiore di cilindri necessari come se fossero Testine aggiuntive (2000 Cilindri e 16 testine
diventavano 1000 cilindri e 32 testine, in modo che il DOS non perdesse i 976 cilindri al di la
dei 1024 supportati). Questo modo è chiamato LBA (Logical Block Addressing) ed è
utilizzato solo con sistemi Windows, poiché File Systems di altri produttori non soffrono di
questo limite. Altri limiti successivi alla dimensione dei dischi sono solo legati alla gestione
dei dati da parte del Sistema operativo, non dagli standard Hardware.
51
Compact Disc
Con la stessa tecnologia ottica utilizzata per i Compact Disc musicali, è possibile incidere un
dischetto contenente un archivio di dati.
Un CD permette solo la lettura e mai la registrazione. La sua fabbricazione prevede, infatti,
non una registrazione diretta sul dischetto, ma la pressofusione in plastica di ciascun
esemplare a partire da un originale. Per questa limitazione, i Compact Disc vengono anche
chiamati CD-ROM, assimilandoli alla memoria ROM, di sola lettura.
La superficie del dischetto è composta da minuscole scanalature che rappresentano i singoli
bit. Un raggio laser, all'interno del disk drive, colpisce la singola scanalature e il disk drive è
in grado di tramutare la rifrazione del raggio in segnali elettrici da inviare al computer.
Esistono disk drive per CD-ROM singoli o multipli. In questo caso si possono inserire nel
lettore più Compact Disc, che possono essere alternati in lettura senza la necessità di
effettuare lo scambio materialmente. I lettori di CD-ROM (Compact-Disc Read-Only
Memory) hanno notevolmente contribuito al boom multimediale dei personal computer. I
dischi compatti possono memorizzare ben 650 MB di dati su un singolo disco, facilmente
trasportabile, permettendo agli sviluppatori di software e di prodotti multimediali di includere
grandi file audio e video nelle loro applicazioni e videogame. Gli utenti hanno subito gradito
molto questi dischi economici, durevoli (rispetto ai dischetti) e di grande capacità. I CDROM, di conseguenza, sono diventati il supporto di memoria di massa rimovibile più diffuso
mai conosciuto fino a oggi dai PC.
Oggi praticamente quasi tutti i PC vengono forniti completi di lettore di CD-ROM. Con tale
diffusione dei drive per CD-ROM tutti, dai produttori di applicazioni ai creatori videogame,
hanno scelto i CD-ROM come mezzo di supporto preferenziale. La tecnologia dei CD-ROM
progredisce rapidamente e le velocità dei drive aumentano di un fattore 5 o 6 volte ogni due
tre anni. Diversamente dai supporti che registrano su strati magnetici, come i dischetti e i
dischi fissi, i CD-ROM usano una tecnica laser per leggere (e scrivere, nel caso dei CD-R,
dove la R sta per Recodable ovvero scrivibile) dati in forma digitale.
Un laser (di solito giallo) scandisce la superfice del disco in rotazione, e la luce riflessa dal
disco viene interpretata come bit. Un "pit" (incavo) profondo solo pochi micron viene
interpretato come 1 binario, e l'assenza di pit come 0. La riflessione della luce laser cambia
passando da una zona senza pit (detta land) a un pit, o da un pit a un land.
Il cambiamento più spettacolare nella tecnologia CD-ROM (a parte quella dei supporti di
memoria scrivibili e relativi drive) riguarda la velocità. I primi drive avevano una velocità di
trasferimento dati di 150 KB/s, che venne in seguito chiamata velocità 1X. I costruttori
seguitarono a perfezionare sempre più la meccanica dei drive, da allora è diventata
conseuetudine indicare la velocità di un drive come multiplo di quella velocità originaria. Così
un drive 2X trasferisce i dati a 300 KB/s, un drive 4X a 600 KB/s, e così via. Solo pochi anni
fa un drive 10X poteva costare anche 1.000.000 di lire. Col tempo, con un numero sempre
crescente di prodotti che entravano in questo enorme mercato, i prezzi hanno subito cali
spettacolari: oggi si acquista un drive IDE 32X per 130.000 lire circa e sono già comparsi a
prezzi poco maggiori i 40X. Ma l'innovazione va ben oltre i semplici aumenti della velocità di
rotazione. Una tecnologia, sviluppata dalla Zen Research e usata in un nuovo lettore CDROM della Kenwood, oggi suddivide il raggio laser in sette raggi, tramite un gruppo di prismi
e di specchi. Il drive CLV ruota solo alla velocità 10X, ma grazie ai raggi plurimi, capaci di
leggere contemporaneamente fino a 7 tracce adiacenti, le prestazioni sono superlative.
Proprio come i drive a dischi fissi, i lettori di CD-ROM possono avere controller di tipo SCSI
o IDE. Diversamente dai dischi fissi, però i mediocri tempi di accesso dei drive CD-ROM (di
solito 150 ms, contro i tipici 9 ms dei dischi fissi) non mettono a dura prova le funzioni di
trasferimento dati di entrambi questi standard. Sia il controller SCSI sia l'IDE possono gestire
facilmente le velocità inferiori ai dischi fissi anche del drive CD-ROM attualmente più veloce,
per cui in questi casi la scelta fra SCSI e IDE non inluisce sulle prestazioni.
52
Supporti di memoria a registrazione ottica
I registratori ottici o masterizzatori permettono agli utenti di PC di registrare (il termine
inglese del gergo è "master", da cui masterizzatori) da sè dischi ottici, quali i CD-ROM e
DVD, senza dover inviare i propri dati a uno degli speciali servizi che elaborano i dati.
Benché non siano fra i più facili da usare, i masterizzatori consentono di memorizzare
ingenti quantità di dati in modo economico e rapido su dischi che poi possono venire
distribuiti ad altri utenti. Questo è un settore che sta assumendo un'importanza sempre
crescente. La base installata molto ampia di unità CD-ROM, per esempio, rende i CD
scrivibili e riscrivibili uno strumento assai potente per archiviare e distribuire grandi quantità
di dati che possono essere riprodotti su altri PC. L'avvento dei DVD promette di rendere
altrettanto importanti drive analogici con supporti ad alta densità.
I registratori ottici possono essere utilizzati per un numero sempre maggiore di applicazioni,
da quelle per uso domestico all'editoria e alla gestione dei dati. Tutti questi drive utilizzano
raggi laser per leggere le variazioni nella superfice del disco, che il controller integrato
interpreta come 1 o 0 digitali. Da questo punto di vista, funzionano esattamente come i
normali lettori di CD-ROM e DVD. Ma queste periferiche permettono anche di inviare un
raggio laser più potente su supporti speciali, e così di scrivere dati sui dischi. In tutti i casi
queste unità sono in grado di leggere i formati di dischi precedenti. Così un drive DVD-RAM
può leggere CD-ROM, CD-R, CD-RW e DVD ROM. Un drive CD-RW, attualmente, può
leggere CD-ROM e leggere e scrivere CD-R e CD-RW. Nessun formato di CD può però
leggere i dischi DVD, e i drive DVD-RAM non possono scrivere su CD-R o CD-RW.
I CD-R: Il primo supporto a larga diffusione registrabile con raggio laser, che oggi si è
conquistata la maggior fetta di mercato. I drive CD-R si possono trovare sotto nomi assai
diversi ma tutti hanno un'unica caratteristica: su qualsiasi parte del supporto si può registrare
(scrivere) una sola volta. Sebbene poi i dati possano venire letti dal disco quante volte si
vuole, fino a quando dura il disco, non sarà più possibile registrare sopra una traccia che è
stata "incisa" da un masterizzatore CD-R. Il maggior vantaggio dei CD-R e relativi drive è
che tale supporto può essere letto praticamente da qualsiasi unità CD-ROM: un punto molto
importante, data l'estrema diffusione raggiunta dai lettori di CD-ROM sui PC moderni. La
base installata di unità CD-ROM rende i CD-R particolarmente utili per distribuire dati ad
altri. Il funzionamento dei CD-R emula il processo usato per creare CD-ROM professionali
con l'impiego di prodotti chimici. Su un disco CD-ROM realizzato in uno studio professionale,
i dati vengono registrati sul supporto usando un laser per creare incavi (pit) e rilievi (rise o
land) lungo una traccia concentrica a spirale. Nella riproduzione, pit e land riflettono in modo
diverso il raggio laser di lettura del drive CD-ROM: un microprocessore integrato capta le
variazioni di segnale e le converte in bit, che possono essere inviati al PC e interpretati
come dati. La registrazione dei CD-R differisce un po' da questa, perché l'apparecchio non è
in grado di bruciare agevolmente pit sul supporto. I drive CD-R utilizzano invece un supporto
speciale, che permette un'interazione chimica che crea poi l'illusione di pit e land bruciati
sulla superficie. Sopra un substrato di policarbonato che reca prestampate le piste incise
(usate per allineare i pit corrispondenti ai dati) viene posto uno strato che contiene un
colorante reattivo, fotosensibile, e uno strato riflettente. Il processo ha luogo nello strato
fotosensibile del colorante, che reagisce quando è esposto alla specifica lunghezza d'onda
del laser della testina di scrittura. Quando il raggio laser riscalda un punto sul disco, esso
diventa meno riflettente rispetto alle aree vicine non toccate dal raggio, e produce così il
medesimo effetto di un pit bruciato su un normale CD-ROM. Dato che la composizione del
colorante viene alterata dal laser, su ciascun punto del disco CD-R si può scrivere in questo
modo una sola volta.
Nel corso dell'ultimo anno i drive CD-RW (CD-ReWritable) sono diventati una opzione di
masterizzazione importante. Queste unità utilizzano una combinazione della tecnica di
scrittura a pacchetti variabili e un supporto del disco a cambiamento di fase (sviluppato a
suo tempo da Panasonic-Matsushita) che permette sia di scrivere sia di riscrivere sui CDRW. I drive CD-RW possono masterizzare anche gli economici CD-R, e costituiscono quindi
un'opzione estremamente versatile per chi vuole distribuire dati multimediali, scambiare file e
creare backup. I drive CD-RW coprono l'intervallo fra dischi CD-R (non riscrivibili) e i DVDRAM (che possono essere letti solo da una piccola parte di drive ottici). Il supporto a
cambiamento di fase, d'altro canto, si differenzia sostanzialmente dall'approccio dei normali
CD-ROM. Qui un sottile supporto a struttura cristallina viene sottoposto a un impulso laser
per scrivere i bit. L'energia altera la struttura cristallina del supporto, e fa sì che la sostanza
da assorbente della luce diventi riflettente. Un drive può determinare il valore del bit in base
53
al fatto che il raggio laser ritorni riflesso al detector o venga assorbito dal supporto. Ogni
porzione del supporto può subire questa alternanza di stati fino a 1000 volte nel corso della
vita di un disco. Purtroppo, la CD-RW obbliga ad accettare un certo numero di compromessi,
che possono rendere meno facile raccomandarne l'uso. Innanzitutto, tali dischi non vengono
letti dalle unità CD-ROM e CD-R meno recenti: è necessario usare un drive recente, che si
conformi allo standard MultiRead per poter leggere i CD-RW. La compatibilità coi CD-R,
invece, e già assicurata dai lettori di CD-ROM venduti negli ultimi anni. I masterizzatori CDRW sono inoltre ovviamente più cari dei loro cugini CD-R. Le velocità di lettura raggiungono i
24X (sui modelli recenti), ma la masterizzazione di CD-R avviene a velocità 4X. Inoltre,
mentre i CD-ROM possono contenere fino a 650 MB di dati, i CD-RW arrivano solo a
480MB, perchè le tabelle di assegnazione dei file richieste per consentire più scritture
consumano da sole più di 100 MB di spazio su ciascun CD-RW. Ma forse il maggior
problema dei CD-RW è che molti lettori di CD-ROM e CD-R non sono in grado di leggere
questi dischi. I drive meno recenti non sono capaci di distinguere le minute variazioni di
riflessione nei materiali a cambiamento di fase dei CD-RW. Per questo motivo il CD-RW
risulta adatto più per il backup dei dati che per distribuire file su larga scala. Non sorprende
che il prezzo dei drive CD-RW sia maggiore di quello dei CD-R. Anche i dischi CD-RW
costano di più, circa 4.000 lire per disco, mentre il prezzo dei CD-R e di circa 1.500 lire.
Masterizzatori CD-R
La diffusione e la praticità dei CD-ROM ha avuto un notevole incremento con la nascita e la
diffusione dei masterizzatori da scrivania per registrare dati su CD-ROM scrivibili.
Produrre CD-ROM era un procedimento macchinoso, lungo e costoso. Bisognava mettere a
punto, registrandolo su un normale disco rigido, un prototipo del contenuto del CD-ROM,
verificando e correggendo al massimo il software ed i dati, in quanto poi sarebbe stato
impossibile correggere i CD-ROM prodotti. Questo originale doveva essere affidato ad una
società specializzata, la quale provvedeva, con costosi dispositivi, a produrre una singola
copia del CD-ROM, chiamata master. Una volta riesaminato il master, ed eventualmente
producendone un altro definitivo, questo veniva utilizzato per lo stampaggio dei CD-ROM da
commercializzare.
La verifica del master doveva essere accuratissima, in quanto un errore presente sul master
portava alla tragica situazione nella quale tutti i CD-ROM prodotti dovevano essere buttati
via per stamparne altrettanti con il software corretto.
Gli impianti per lo stampaggio dei CD-ROM sono identici a quelli per i CD musicali, quindi
erano le stesse aziende che ne effettuavano la produzione. Un numero basso di copie
portava ad un altissimo costo per la singola copia di CD-ROM, tanto più che si doveva
ammortizzare anche il costo di masterizzazione. Tirature inferiori alle 1.000 copie avevano
costi proibitivi.
La diffusione dei lettori di CD-ROM ed il loro abbassamento di prezzo hanno ampiato la
base degli acquirenti, e questo ha reso più economico stamparli. Effettuare poche diecine di
copie, tuttavia, era ancora anti-economico.
I masterizzatori da scrivania hanno risolto il problema, rendendo possibile ed economico
produrre non solo poche copie di un CD-ROM, ma addirittura uno solo. Sono nati i CD-R,
cioè CD-ROM scrivibili, che possono immagazzinare fino a 650 Mb di dati o software.
I CD-R sono diversi dai CD-ROM. Mentre questi ultimi sono stampati meccanicamente ed
immodificabili, i CD-R possono essere sia letti (anche dai normali lettori per CD-ROM) che
scritti. La sua superficie è ricoperta da un materiale policristallino che, scaldato ad alta
temperatura dal raggio laser, passa dallo stato riflettente a quello amorfo, non riflettente.
Il problema è che l’operazione di scrittura su un CD-R può avvenire una sola volta.
Il problema era più complesso con i primi masterizzatori, che utilizzavano la tecnologia Disk
at Once. Cioè una volta registrato qualcosa su un disco, non si poteva più aggiungere nulla.
Poiché la quantità di dati che si possono immagazzinare su un CD-R è notevole, occorreva
parecchio tempo prima che si riuscisse a mettere insieme 650 Mb di dati da archiviare.
D’altra parte era poco economico utilizzare un CD-R per registrarvi solamente 20 o 40 Mb.
La seconda generazione di masterizzatori utilizza la tecnologia multisessione Track at Once.
Cioè si può registrare sul CD-R anche in più sessioni, in tempi diversi. L’unità minima di
registrazione è la traccia, e per ogni sessione di registrazione si possono registrare una o
più tracce, fino a raggiungere il numero massimo di 99. Ovviamente basta impegnare una
traccia anche solo per pochi dati, perché quella traccia non sia più disponibile nella sessione
successiva.
Mentre il contenuto del disco non è ancora definitivo, il CD-R può essere letto solamente dal
54
masterizzatore e non viene riconosciuto dai lettori di CD-ROM. Il CD-R diventa CD-ROM,
cioè può essere letto dai normali drive, solamente quando vi si registrano le informazioni
necessarie perché sia riconosciuto. Da questo momento non si possono aggiungere più
tracce.
Entrambe queste tecnologie hanno un grosso inconveniente: il flusso dei byte dal computer
al laser deve essere continuo ed ininterrotto. Se si verifica il minimo inconveniente (magari
dovuto ad un’attività in multitasking, all’intervento di un salvaschermo, al controllo periodico
di un antivirus...) il processo di scrittura si interrompe ed il CD-R diventa inutilizzabile.
Questo errore, terrore di chiunque lavori con i masterizzatori, si chiama “buffer underrun”.
Una volta finita la registrazione sul CD-R, questo diventa un normale CD-ROM, conforme
allo standard ISO 9660, con l’unica differenza che i normali CD-ROM sono di colore
argentato ed i CD-R sono dorati. Questa colorazione dipende dal materiale policristallino
presente sulla sua superficie. Esistevano CD-R con altri materiali, di colori verde e celeste,
ma avevano prestazioni inferiori.
I masterizzatori hanno, di solito, due velocità: una di scrittura ed una di lettura. La velocità di
scrittura è ovviamente inferiore a quella di lettura, in quanto l’operazione è molto più
complessa. In lettura abbiamo velocità fino a 6x, mentre in scrittura possiamo avere 2x o 4x.
Masterizzatori CD-RW
I normali masterizzatori per CD-ROM consentono di registrare sul CD-R una sola volta. I
masterizzatori di tipo CD-RW, invece, posso essere utilizzati come un vero e proprio hard
disk, poiché consentono di registrare, cancellare e di nuovo registrare dati sul CD-ROM
anche parzialmente ed in tempi diversi.
La tecnica di registrazione viene chiamata Packet Writing, e consiste nella capacità di
inviare dati al masterizzatore suddivisi in pacchetti, ognuno di dimensioni inferiori alla
capacità del buffer, evitando così il famigerato errore “buffer underrun” tipico dei
masterizzatori Disk At Once o Track At Once.
Ciascun CD-RW può essere cancellato e riscritto totalmente per 1.000 volte circa. E’
indubbiamente un passo avanti rispetto ai CD-R immodificabili, anche se ancora lontano dai
dischi ottici cancellabili e riscrivibili fino a un milione di volte.
La tecnologia è simile a quella CD-R: un laser che scalda ad alta temperatura lo strato
policristallino e lo rende amorfo. La cancellazione, cioè la possibilità del materiale cristallino
a tornare riflettente, si ottiene scaldandolo a temperatura meno alta ma per più tempo.
Vi sono, però, due grossi problemi che ne ostacolano la diffusione.
Il primo è che i CD-RW adottano un nuovo standard, ISO 13490, incompatibile con ISO
9660 e quindi con hardware e software che riconosca solamente il ISO 9660. In particolare,
con i lettori di CD-ROM prodotti prima dell’invenzione dei CD-RW.
D’altra parte ISO 9660 è un formato statico ed i file di sistema non possono essere
modificati, è adatto cioè ad un disco immodificabile e non è possibile utilizzarlo per dischi
modificabili.
Il secondo problema è di natura hardware: i CD-RW, in lettura, riflettono molto meno la luce
del laser, solamente un quarto di quella riflessa dai CD-ROM. E questo rende impossibile a
molti dispositivi di utilizzarli.
In pratica, i CD-RW possono essere letti con sicurezza solamente dai masterizzatori CD-RW
e da pochi altri lettori: quelli Multi Read e i lettori di DVD (ma non tutti).
Data la scarsa diffusione, i masterizzatori CD-RW hanno ancora un alto costo, così come i
singoli CD-RW. Questi ultimi, ad esempio, costano 5 volte più di un CD-R.
55
Digital Versatile Disk (DVD)
Se si ha una certa familiarità coi lettori di CD-ROM, comprendere i DVD-ROM dovrebbe
essere abbastanza facile. In fin dei conti, esternamente i relativi drive sembrano identici ai
lettori di CD-ROM. Anche i lettori di DVD-ROM usano un meccanismo ottico basato su
raggio laser per leggere i dati da dischi di dimensioni standard. Perfino i dischi sembrano
identici, anche se i DVD-ROM hanno una maggiore densità di tracce, che permette di
registravi sopra ingenti quantità di dati. I lettori di DVD-ROM inviano sul disco un raggio laser
di colore rosso. Il meccanismo rileva le variazioni della luce laser riflessa dalla superficie del
supporto e le interpreta come 1 e 0. I drive DVD-ROM differiscono dai lettori di CD-ROM
perché il raggio laser è molto più focalizzato e di colore diverso da quello utilizzato nei lettori
di CD-ROM. Anche fra i supporti dei DVD-ROM e dei CD-ROM esistono analogie e
differenze. Entrambi hanno minutissime incavature sulla superficie (dette pit), che il
meccanismo ottico interpreta come dati. I drive DVD-ROM però hanno pit molto più
ravvicinati e tracce concentriche più compatte, che possono contenere molti più dati su di un
disco. Numerosi centri di ricerca hanno cominciato a studiare i modi per aumentare la
capacità di memorizzare dei dischi e dei lettori di CD-ROM. Nuove tecniche di fabbricazione
e tecniche laser perfezionate hanno spianato la via per ottenere capacità di memoria ben
oltre il limite dei 650 MB dei CD-ROM. Sono emerse così ben presto due organizzazioni e
due specifiche di progetto concorrenti: Super Density, da parte di un gruppo di società
guidate da Toshiba, e il Multimedia CD della Philips. Ciò minacciava di diventare il classico
caso di blocco reciproco di standard, che poteva mettere in pericolo il successo del nuovo
standard. Avendo presente la costosa battaglia degli anni '80 fra gli standard concorrenti per
le videocassette (VHS e Betamax), alla fine i due gruppi nel 1996 decisero di cooperare per
definire uno standard unificato. Il risultato venne chiamato DVD. Varie richieste da parte
dell'industria cinematografica hanno però reso più complesso il progetto iniziale. Questo
settore vedeva nel DVD un supporto eccezionale per la distribuzione nell'ambito domestico
di film a elevata qualità.
I lettori DVD-ROM esistono in due formati:
• Riproduttori di DVD
• Drive per DVD-ROM
Intesi per l'uso negli ambienti domestici, i riproduttori (lettori) di DVD sono scatole che
possono essere inserite direttamente nei televisori: in pratica sono gli eredi degli attuali VCR
e riproduttori Laserdisc.
Per i PC, invece, i lettori di DVD-ROM hanno l'aspetto di lettori di CD-ROM e funzionano
esattamente nello stesso modo. Hanno bisogno, però, di hardware aggiuntivo, di solito una
scheda di espansione che gestisce le complicate operazioni per l'elaborazione video e
audio, oltre a decifrare i dati del disco. In pratica, il DVD è costituito da quattro specifiche in
una, con tecniche separate per memorizzare da 4,7 a 17 GB di dati su un singolo disco.
Sfruttando la stratificazione dei supporti e l'impiego di entrambe le facce del disco, sono
supportati quattro livelli:
• Faccia singola, singolo strato: 4,7 GB
• Faccia singola, doppio strato: 8,5 GB
• Faccia doppia, singolo strato 9,4 GB
• Faccia doppia, doppio strato 17 GB
Tutti i dischi DVD, indipendentemente dalla loro capacità, hanno diametro e spessore eguali
a quelli dei normali CD-ROM (diametro di 12 cm e spessore di 1,2 mm). Attualmente è
disponibile il primo e meno capace tipo di DVD, quello da 4,7 GB. Entro poco tempo
dovrebbero seguire gli altri. Fortunatamente, tutti i riproduttori di DVD e lettori di DVD-ROM
venduti oggi saranno in grado di leggere tutti i formati. Una buona notizia è che alcune
migliorie costruttive hanno permesso agli attuali impianti di fabbricazione di lettori di CDROM di essere ristrutturati per fabbricare DVD-ROM. Il cambiamento più importante
riguarda la tecnica di incollaggio, in cui due sottili dischi di 0,6 mm (substrati) vengono
assemblati per crearne uno solo dello spessore di 1,2 mm. Il primo substrato, non presente
sui CD-ROM, fornisce la funzionalità "doppio strato" che può contenere un altro livello di dati
memorizzati. In pratica, i DVD sono due dischi in uno.
56
Considerazioni finali
I primi personal della storia dell'informatica utilizzavano cassette con nastro magnetico, le
stesse usate per la registrazione audio. Il caricamento dei programmi era molto lento,
ancora di più lo era la ricerca di un particolare punto del nastro con il documento che
volevamo richiamare, ed ancora più lenta la registrazione del lavoro svolto.
Con l'aumento della capacità di memoria dei computer, con il crescere della loro potenza e
della complessità che certi programmi richiedono per la registrazione dei loro documenti, ma
soprattutto con il nascere di applicazioni grafiche e multimediali, si è acuita la necessità di
usufruire di unità di memoria di massa sempre più capaci e sempre più veloci. Possiamo
dire che le memorie di massa che abbiamo esaminato corrispondo ognuna a diverse
esigenze di archiviazione, alla quale cercano di corrispondere in modo ottimale.
La commercializzazione del software e la registrazione di documenti di piccole dimensioni
viene effettuata tramite i floppy disk da 5,25 pollici o da 3,5 pollici. Si tratta di una memoria di
massa adottata da tutti i computer e che garantisce la massima adattabilità. Sono utilizzati
per il trasferimento di dati fra computer non collegati in rete, ma sono limitati a documenti
non più grandi della loro limitata capacità di archiviazione.
Il lavoro quotidiano viene svolto leggendo e registrando su dischi rigidi interni. La capacità
può essere scelta fra una vasta gamma di dimensioni, a seconda delle esigenze di
archiviazione. La velocità di accesso, cioè la velocità con cui il dato viene letto, è ottima ed i
prezzi ormai contenutissimi.
Nella configurazione di base di tutti i computer commercializzati è presente un disco rigido
interno. La sua capacità varia in proporzione alla potenza del personal. Comunemente si va
da 20Mb 0 40Mb, per i modelli inferiori, fino ai 160Mb o più per i modelli superiori.
I dischi rigidi rimovibili sono il mezzo adatto al trasferimento di un numero cospicuo di dati, o
per documenti molto voluminosi, fra due computer non collegati in rete. I dischi rigidi
rimovibili hanno capacità di archiviazione paragonabile a quella di un disco rigido fisso, con
in più la praticità di poterlo cambiare molto velocemente. In alcuni casi possono essere una
valida alternativa ai dischi rigidi esterni.
I dischi rigidi rimovibili sono anche indicati per la conservazione storica dei documenti,
poiché consentono una rapida ricerca e lettura del singolo documento.
Le unità di memoria di massa a nastro sono il mezzo ideale per effettuare copie di riserva di
archivi di dati, grazie alla loro alta velocità di registrazione ed al basso costo delle cartucce.
Si possono copiare i dati contenuti in un computer, od in una intera rete di personal, in poco
tempo e conservare le cartucce indefinitamente senza dover immobilizzare un capitale.
I Compact Disc ottici, per la loro caratteristica di consentire solo la lettura, sono utilizzati per
la consultazione di opere che, tradizionalmente, erano stampate in libri. Codici,
giurisprudenza, manuali, dizionari, vocabolari, annuari, ma anche opere letterarie come la
Divina Commedia o la Bibbia.
Il CD consente di effettuare rapide ricerche incrociate di singole parole o di argomenti,
ricavando istantaneamente le referenze ed i testi relativi, rivelandosi un mezzo rivoluzionario
di lavoro. L'unica controindicazione è l'alto prezzo delle opere pubblicate su Compact Disc,
molto superiore alle stesse in edizione stampata su carta.
Una applicazione recente del Compact Disc ottico è nel campo educativo e culturale. Sul CD
possono essere registrate immagini, testi e suoni, il tutto in modo omogeneo e strutturato
per formare uno strumento di conoscenza efficace.
Il computer consente di navigare fra tutte queste informazioni e di presentarle secondo tutte
le possibili combinazioni desiderate dall'utente. Questa applicazione, chiamata
multimedialità, rappresenta una grossa risorsa di sviluppo per i computer del futuro.
I dischi ottici scrivibili vengono utilizzati quando sia necessario avere a disposizione un
numero ingente di documenti. Esistono disk drive ottici in grado di ospitare
contemporaneamente molti singoli dischi ottici, sia in lettura che in registrazione. Questi
dispositivi, chiamati juke box ottici, sommano così molte centinaia di megabyte di capacità di
archiviazione.
E' quasi un obbligo ricorrere a queste unità di memoria di massa quando si deve lavorare
con immagini grafiche, sia di illustrazioni che di fotografie digitalizzate. Un singolo
documento contenente una immagine a colori richiede molte centinaia di kilobyte ed anche il
disco rigido più capace ne sarebbe, in breve tempo, saturato.
Si tratta dell'unità di memoria di massa più costosa, sia per i singoli dischi che per i disk
drive.
57
La standard SCSI
Molte unità di memoria di massa, o meglio i loro disk drive, appartengono allo standard
industriale SCSI, da Small Computer System Interface, che consente il collegamento di più
dispositivi, fino a sette, utilizzando una sola scheda di interfaccia. Le unità che non
corrispondono a questo standard richiedono una scheda ciascuna.
La praticità è evidente, così anche il risparmio. A ciò si deve aggiungere la portabilità: le
unità di memoria di massa SCSI sono trasferibili da computer a computer, sia nello stesso
ambiente operativo che in altri, senza alcuna modifica.
Questi standard viene messo in commercio con due differenti ampiezze di BUS dati, 8 e 16
bit, con rispettivamente 8 e 16 periferiche concatenabili su ogni canale. Siccome il controller
è contato come periferica, ecco che rimangono 7 o 15 indirizzi disponibili. Ciascuna
periferica utilizzata è identificata da un numero SCSI ID, impostabile arbitrariamente, e gli
estremi della catena SCSI devono essere terminati, di solito tramite un interruttore che attiva
una resistenza sul connettore. Qui di seguito viene illustrata la gamma di specifiche delle
versioni SCSI.
Ampiezza del
Bus
8-bit (narrow)
16-bit (wide)
SCSI
Standard
5 Mb/s
10 Mb/s
Fast
SCSI
10 Mb/s
20 Mb/s
Ultra SCSI
Ultra-2 SCSI
Ultra-3 SCSI
Ultra320
SCSI
20 Mb/s
40 Mb/s
40 Mb/s
80 Mb/s
160 Mb/s
320 Mb/s
58
Modem e telecomunicazioni
Il modem è una apparecchiatura che serve per mettere in contatto due computer distanti fra
di loro, tramite la linea telefonica analogica o digitale.
La parola modem deriva da una sintesi dei termini “modulatore” e “demodulatore” ed
esprime il suo funzionamento con le linee telefoniche analogiche, per le quali è nato. Queste
linee sono adatte alla trasmissione di suoni, non di impulsi digitali.
I bit, quindi, non possono transitare così come sono, ma devono essere prima trasformati in
suoni, o meglio in “fischi” modulati. Questa è la prima funzione del modem: ricevere i bit dal
computer e trasmetterli come suoni.
La seconda funzione del modem è di compiere il procedimento inverso: trasformare i suoni
modulati, che arrivano dalla linea telefonica, in bit da inviare al computer.
Con questa “traduzione simultanea” due computer possono scambiarsi dati (bit)
trasmettendosi “fischi”. E’ lo stesso procedimento utilizzato dai fax, ed a tutti è capitato di
comporre un numero telefonico e di sentirsi rispondere da una serie di fischi acuti: è la
“voce” di un fax che risponde al telefono.
Utilizzando la stessa procedura di modulazione/demodulazione, modem e fax possono
quindi essere integrati in una stessa apparecchiatura, il modem/fax.
Modulazione e demodulazione
Il modem viene collegato da una parte alla porta seriale del computer, dall’altra alla linea
telefonica. Con un software di comunicazione il modem è in grado di selezionare un numero
telefonico, all’altro capo del quale si trova un secondo modem, collegato da parte sua ad un
computer sul quale è in esecuzione un software di comunicazione.
Il flusso di bit dei dati del primo computer esce dalla porta seriale ed arriva al modem. Qui il
circuito di modulazione provvedere a trasformare i bit in frequenze sonore che possono
essere inviate lungo le linee telefoniche.
Il secondo modem riceve le frequenze sonore e, con un circuito di demodulazione, le
trasforma in bit, inviandone il flusso alla porta seriale del computer cui è collegato.
Con questo semplice passaggio, di modulazione di frequenze sonore alla partenza e di
demodulazione all’arrivo, è possibile connettere due computer come se fossero a pochi
centimetri di distanza. L’unica differenza sta nella velocità di comunicazione.
Mentre il flusso di dati può viaggiare fino a 230’000 bit al secondo se i due computer
sono in connessione diretta, la velocità massima permessa dalle linee telefoniche è
di 56’600 bit per secondo, ma i disturbi, le interferenze e le difficoltà di ricezione
spesso costringono ad utilizzare velocità di 28’800 bit per secondo, a addirittura
inferiori.
Protocolli
Come abbiamo visto parlando delle porte del computer, la trasmissione seriale di dati
impone la scelta del protocollo, che non riguarda solamente la velocità, ma anche l’esistenza
di codici di controllo ed il formato del flusso dei bit.
Poiché la trasmissione di dati molto spesso coinvolge nazioni diverse, i protocolli utilizzabili
sono stati definiti da un organismo internazionale, il Comitato Consultivo Internazionale per
la Telegrafia e Telefonia. Il CCITT ha stabilito numerosi standard, ed a questi si sono
uniformati tutti i costruttori di modem.
Negli Stati Uniti si usano standard diversi per la trasmissione dati, definiti Bell, dalla ditta che
li ha elaborati.
Ovviamente i due modem corrispondenti ai due capi della linea telefonica, devono essere
preimpostati con lo stesso protocollo, altrimenti la trasmissione è impossibile.
59
Commutata e ISDN
I modem si possono dividere in due grandi settori: quelli per linee telefoniche commutate e
quelli per linee telefoniche ISDN.
Le linee telefoniche commutate sono le normali linee telefoniche. La comunicazione si
effettua tramite la selezione di un numero telefonico e l’instradamento attraverso vari
centraline su linee utilizzate contemporaneamente anche da altri utenti per diverse
collegamenti.
Le linee ISDN sono installazioni particolari con le quali il collegamento fra i due punti, pur
utilizzando spesso, almeno in parte, le normali attrezzature telefoniche, è elaborato con
particolari tecnologie che permettono una trasmissione senza alcun errore e più veloce.
La differenza è sostanziale. Nel caso della linea commutata i due computer lavorano isolati
per la gran parte del loro tempo, salvo effettuare una telefonata quando è necessario uno
scambio di dati. La linea è però soggetta a disturbi derivati dall’instradamento e dalla
condivisione della linea. Nel caso della linea ISDN scambio di dati è assente da disturbi.
Nell’uno e nell’altro dei casi è necessario un modem a ciascun capo della linea, ma i modem
per linea commutata sono del tutto diversi da quelli per linea ISDN.
Avere una linea ISDN è ovviamente molto più costoso, tuttavia ha il vantaggio di
avere due numeri telefonici del tutto indipendenti e di consentire un minore impegno
di linea (e quindi un minor consumo di scatti) se si usa spesso il modem (di tipo
ISDN) o il fax (però di tipo ISDN anch'esso). Utilizzare una linea ISDN con un
modem normale (o con un fax normale) non porta ad alcun vantaggio complessivo.
Linee dedicate
Diverso è il discorso delle linee dedicate. Si tratta di collegamenti telefonici permanenti,
sempre attivi, che servono ad utilizzatori "intensi" come può essere il computer centrale di
una banca, collegato su linee dedicate a tutte le agenzie sul territorio nazionale.
I dati devono risiedere nell’elaboratore centrale per poterne consentire l’accesso da parte di
qualunque agenzia si rechi il correntista per incassare un assegno. D’altra parte è
necessario che qualsiasi operazione effettuata in una filiale venga immediatamente
registrata nell’elaboratore centrale perché le altre filiali, richiedendo la situazione del cliente
per l’incasso di un altro assegno, possano avere quella reale e non quella del giorno prima.
Se ciò non avvenisse con una comunicazione continua e grazie ad una linea dedicata, un
cliente potrebbe prelevare più denaro di quanto ne abbia sul conto, presentandosi in filiali
diverse in momenti di poco successivi o con complici in altre città.
Questo tipo di collegamento, con costi ingenti per la linea e per apparecchiature modem dal
prezzo elevato, è appannaggio quasi esclusivo di grandi aziende. Inoltre si tratta del
collegamento fra elaboratori di grandi o medie dimensioni, raramente di personal computer.
Caratteristiche tecniche
I modem per linea commutata in commercio hanno caratteristiche comuni:
- comandi Hayes, così chiamati dalla ditta americana che li elaborati. Si tratta di un
linguaggio di comandi con il quale il computer dirige il funzionamento del modem;
- velocità massima secondo le nostre esigenze: 300, 1’200, 2’400, 4’800, 9’600, 12'200,
28'800, 36'600 baud (bit per secondo) ed oltre;
- protocolli: CCITT se si vuole comunicare esclusivamente con paesi europei, Bell se anche
con gli Stati Uniti;
- correzione d’errore: MNP4, che consente la ricezione dei dati esattamente come sono stati
trasmessi, eliminando ogni possibile bit modificato da interferenze (non è presente nei
modem più economici);
- compressione: MNP5, che invia i bit codificandoli in modo che lo scambio effettivo di dati
sia più veloce della velocità tecnica del collegamento (non è presente nei modem più
economici).
Le apparecchiature più recenti presentano, oltre ad un costo più contenuto rispetto ai vecchi
modelli, ed a dimensioni più piccole, alcune innovazioni tecnologiche:
60
- autoriconoscimento del protocollo: il modem è in grado di riconoscere il protocollo usato
dal modem corrispondente e di regolarsi da solo sullo stesso protocollo;
- capacità telefax: la tecnica di trasmissione dei telefax non è molto distante da quella dei
modem. Basta un piccolo circuito in più ed il modem è in grado di trasmettere e ricevere
telefax, collegandosi con le tradizionali apparecchiature telefax.
In coincidenza con il successo dei computer portatili, sono stati prodotti un buon numero di
modem portatili che alle caratteristiche tecniche più diffuse aggiungono:
- adattabilità, grazie alla presenta di tipi diversi di connettori telefonici, compresi i telefoni
pubblici, quelli utilizzati negli alberghi e gli apparecchi cellulari;
- autoalimentazione, che ne permette l’uso in situazioni particolari.
Indipendenti ed a schede
I modem sono apparecchiature standardizzate, utilizzabili da tutti i computer. Cambiando
personal è possibile conservare lo stesso modem. Addirittura il cambio di ambiente, da
quello DOS a quello Macintosh, permette di usare lo stesso modem con la sola sostituzione
del cavetto di collegamento a causa della diversità della porta seriale.
Ciò è un grande risparmio, senza dubbio, ma il modem indipendente occupa spazio sulla
scrivania, va acceso e spento, ha bisogno di un alimentatore adattatore di corrente a parte.
Alcuni utenti trovano più conveniente utilizzare i modem cosiddetti interni, i cui componenti
sono stati assemblati su una scheda da inserire in uno slot all’interno del computer.
Si ha il vantaggio di non dover accendere né spengere il modem, perché la scheda si
alimenta direttamente dal computer. Non c’è neanche bisogno del trasformatore adattatore
esterno.
L’altra faccia della medaglia è che, cambiando personal, non c’è la garanzia che la scheda
modem funzioni anche nel nuovo computer, rischiando di dover ripetere l’acquisto.
Modem/telefax
I modem/telefax sono molto semplici nell’uso, soprattutto in fase di trasmissione.
Dopo aver elaborato il nostro documento su schermo come al solito, lo inviamo in stampa al
modem. In questo caso il modem/telefax finge, rispetto al computer, di essere una
stampante. Il testo, invece di essere stampato, viene trasformato in frequenze sonore, simili
a quelle utilizzate per la trasmissione dati ma usando protocolli diversi. Inviato ad una
apparecchiatura telefax attraverso la linea telefonica, il fax risulta totalmente identico a
quello che sarebbe arrivato se il documento fosse stato stampato su carta e quindi
trasmesso con un telefax normale.
La ricezione non è molto diversa, salvo che in questo caso il modem demodula le frequenze
sonore emesse dall’apparecchiatura telefax e le trasforma in un documento grafico.
Purtroppo non è ancora possibile la trasformazione del telefax in semplice testo, non solo
leggibile ma anche elaborabile. Il fax arrivato è invece una vera e propria fotografia,
occupando anche un rilevante spazio sul disco per la sua registrazione.
La gran parte dei modem/telefax prevede solo la trasmissione dei fax e non la ricezione.
La differenza di costo con un modem normale non è rilevante. Inoltre il modem/telefax
consente un grosso vantaggio rispetto alle apparecchiature telefax: la trasmissione
automatica.
Grazie al software di gestione del modem si può inviare un fax a destinatari multipli e ad
orari differiti. Questo consente un notevole risparmio sia di tempo che di costi.
Non è più necessario passare le ore all’apparecchiatura telefax per inviare alcune diecine di
fax, perché il modem/fax effettua l’operazione autonomamente. Se trova un numero
occupato od un fax staccato, continua a provare ad intervalli prestabiliti. Alla fine notifica
all’utente i fax inviati e quelli che non è stato possibile inoltrare.
Poiché le tariffe teleselettive sono inferiori durante la notte, è un grande vantaggio lasciare
che il modem/telefax effettui le sue operazioni dopo le ore 22. E’ sufficiente mettere in lista
di spedizione per quell’ora i diversi fax da trasmettere, ed il mattino successivo troveremo
61
sullo schermo la solita lista dei fax inoltrati e di quelli che non è stato possibile spedire.
Considerazioni finali
Si utilizza il modem per collegare due computer che devono scambiarsi dati, come fra la
filiale di una ditta e la sede centrale per aggiornare il magazzino, gli ordini, la contabilità.
Oppure ci si collega ad un elaboratore di grandi dimensioni, per ricevere ed utilizzare dati in
suo possesso. Fra gli esempi più diffusi di elaboratori cui si può accedere via modem per
ricavare informazioni:
- Cerved, centro calcolo delle Camere di Commercio: detiene tutti i dati sociali di tutte le
società ed aziende commerciali di capitali e di persone esistenti in Italia, compresi i bilanci, e
gli organi sociali. Ha inoltre l’elenco di tutti gli effetti bancari od assegni andati in protesto in
Italia, con nome del traente. Sono inoltre a disposizione dati sul commercio con l’estero e
sulle fiere internazionali;
- Poligrafico dello Stato: rende disponibili i testi originali delle Leggi dello stato e di tutti i
decreti pubblicati sulla Gazzetta Ufficiale;
- Seat, società editrice delle Pagine Gialle Telefoniche: con l’equivalente elettronico delle
Pagine Gialle,;
- Ansa: l’intero archivio storico di tutte le notizie trasmesse ai giornali.
Oltre all’attività di consultazione di archivi di informazioni residenti su computer lontani, il
modem serve anche per collegarsi attivamente a servizi telematici come:
- Postel, servizio di posta elettronica dell’Amministrazione Postale: consente l’invio di lettere,
circolari, fatture, effetti e telex direttamente dal computer, garantendo una consegna a
destinazione molto più celere del servizio ordinario delle poste. Il servizio Postel, infatti, si
basa su una ventina di elaboratori nelle maggiori città italiane. Una lettera scritta su un
computer a Milano, per un destinatario a Roma, viene inviata all’elaboratore Postel di Milano
che la inoltra al suo omologo di Roma, il quale provvede a stamparla direttamente all’interno
del centro postale di smistamento. Nell’arco di 12/24 ore la lettera è consegnata. Con un
sovrapprezzo è possibile utilizzare il servizio Postacelere per una consegna entro 6 ore.
In campo internazionale è possibile accedere a banche dati di ogni genere, di consultazione
scientifica, finanziaria, industriale, medica, ma anche servizi di assistenza e consulenza
organizzati dalle case produttrici di computer o dalle software house che in questo modo
forniscono ai propri clienti informazioni sempre complete ed aggiornate. Ci si può collegare
alle agenzie stampa come Associated Press o Roiter per i lanci di notizie in diretta, o per
seguire particolari avvenimenti.
Esistono servizi telematici professionali, grazie ai quali una categoria di esperti può
scambiarsi notizie ed opinioni partecipando ad una continua conferenza a livello mondiale.
Indipendentemente dalla località nella quale abitano o lavorano, ingegneri, medici,
giornalisti, avvocati, ricercatori, ma anche presentatori di varietà, skipper, piloti aeronautici o
pompieri, possono collegarsi con il loro computer e partecipare pubblicamente, oppure
inviarsi messaggi personali.
Anche il tempo libero ha la sua quota di comunicazione elettronica. Numerosi servizi
telematici sono gratuiti, od a basso costo, e servono allo scambio di messaggi ed
esperienze hobbistiche o personali. Vi sono poi basi di dati con trame di film o di telefilm e
soap opera, classifiche musicali o letterarie, giochi di simulazione o scacchi in corso fra
partecipanti di vari continenti.
E’ possibile effettuare acquisti, via computer, presso le più grandi catene di grandi magazzini
statunitensi o presso piccoli artigiani delle Hawai. Ottenere una dieta bilanciata o consigli sul
controllo delle nascite, su come smettere di fumare o di bere alcoolici.
Si possono comprare o vendere oggetti usati, biciclette, macchine fotografiche, e qualsiasi
altra cosa, fra privati. O trovare suggerimenti sull’allevamento di pesci da acquario.
Non c’è limite alla quantità di informazioni alle quali si può accedere.
62
Collegamenti a grande distanza
Spesso gli elaboratori a cui è necessario collegarsi sono distanti parecchi chilometri e una
chiamata telefonica diretta farebbe arrivare bollette stratosferiche per i costi della
teleselezione. Per fortuna esiste un particolare servizio della SIP che consente il
collegamento di computer a costi ridotti: la rete Itapac.
Utilizzando Itapac, collegarsi con l’elaboratore Cerved, che si trova a Padova, non richiede
la teleselezione da Milano. Si può trasmettere i dati al centro Itapac di Milano, che si mette in
contatto su una linea speciale con il centro Itapac di Padova, il quale ci consente il
collegamento con il Cerved.
Questo passaggio è totalmente trasparente per il transito dei dati, una volta stabilito il
contatto. Anzi, poiché si utilizza la linea telefonica solo in piccola parte, e la linea utilizzata
da Itapac è dedicata alla sola trasmissione dati, il flusso dei bit subirà minori interferenze di
un collegamento telefonico diretto. Ciò fa risparmiare in modo consistente non solo
sull’ordinaria telefonata in teleselezione, ma anche sull’installazione di una linea dedicata
quando questa non sarebbe utilizzata in continuazione.
63
Scheda di rete
La rapida crescita di Internet ha trasformato il PC in un'unità indispensabile per le
comunicazioni. La posta elettronica, i file condivisi, le applicazioni e i servizi di rete sono da
lungo tempo strumenti indispensabili per tutti gli utenti di PC a livello aziendale,
instituzionale, di pubblici esercizi e anche a uso domestico. Sempre più i PC in rete devono
potersi connettere l'uno con l'altro ed ecco entrare prepotentemente in gioco la scheda di
rete o Network Interface Card (NIC). Questo componente, che rappresenta la connessione
fisica alla rete, converte le informazioni che transitano sulla rete in pacchetti di dati con
dimensione standard. Tali pacchetti vengono convertiti in segnali elettrici che vengono
trasferiti sul cavo. All'estremità ricevente, una scheda di rete riceve il segnale elettrico e
quindi decodifica e riassembla i singoli pacchetti che vengono successivamente inviati al
computer. La NIC controlla i pacchetti in ingresso per accertersi che tutti vengano ricevuti
correttamente, una funzione chiamata controllo errori. Le NIC si inseriscono negli
alloggiamenti delle schede di espansione e sono disponibili per slot dei bus ISA, PCI e EISA.
Sebbene in passato la maggior parte dei client utilizzasse NIC basate su ISA, la larghezza di
banda più elevata, una più veloce elaborazione (bus mastering e così via) e la funzione Plug
and Play del bus PCI hanno reso le NIC con bus sempre più in espansione. Il potenziamento
della velocità della rete trarrà sicuramente vantaggio della veloce connessione al bus PCI.
Società quali 3Com e altre commercializzano svariati tipi di schede di rete. Quando la NIC è
fisicamente installata sul PC è necessario collegarla al cavo di rete. Se si utilizza una rete
Ethernet sono disponibili due connettori sul retro del PC. Il primo è un piccolo cilindro che
assomiglia al connettore d'antenna dei televisori; serve per un connettore coassiale BNC.
L'altra connessione, che assomiglia a un comune connettore telefonico, soltanto
leggermente più largo, serve per cablaggi con doppino telefonico. Si utilizzerà uno solo di
questi connettori in base al tipo di rete su cui dovremmo operare.
64
Il monitor
Il monitor è la principale periferica di output del computer. Tramite il monitor noi possiamo
lavorare con il sistema operativo e con i singoli programmi.
Possiamo vedere il contenuto delle unità di memoria di massa e modificarlo; visualizziamo i
documenti, li creiamo ed elaboriamo; seguiamo lo spostamento del puntatore sui diversi
oggetti sullo schermo (pulsanti, menu, finestre, parti del documento) e possiamo agire ed
impartire comandi od eseguire funzioni tramite i pulsanti del mouse...
Il monitor è indispensabile persino in un computer con il quale non lavora mai nessuno,
come in un server di rete sempre acceso ed in funzione: sullo schermo appaiono i dati sul
traffico di rete e su tutti gli “avvenimenti” più importanti, collegamenti e scollegamenti, errori
di connessione, blocchi, che riguardano lo stato del sistema.
La stessa parola “monitor”, in inglese, vuol dire “controllo”.
Esistono in commercio due tipi di monitor: CRT, ovvero con tubo a raggi catodici, e LCD,
ovvero a cristalli liquidi.
I monitor CRT vengono utilizzati da tutti i computer desktop. Hanno una affidabilità e fedeltà
imbattibile con altre tecnologie, ma occupano lo stesso spazio di un televisore e, per motivi
di visibilità, non è possibile ridurre le dimensioni dello schermo, e quindi del tubo catodico.
Gli schermi LCD occupano pochi centimetri di spessore, sono quindi installati sui computer
portatili e sui notebook. Ma la tecnologia a cristalli liquidi ha raggiunto tali livelli qualitativi da
rendere disponibili monitor LCD anche per i computer desktop. Il vantaggio è la notevole
riduzione di spazio che occupano sulla scrivania, lo svantaggio è il costo.
Monitor CRT
Il monitor installato su un personal ricevere i segnali video dall’adattatore grafico. Logico
quindi che ne condivida lo standard, altrimenti non ne potrebbe interpretare i comandi.
E’ difficile trovare in commercio monitor adatti a vecchi standard grafici, precedenti al VGA.
Poiché gran parte dei computer commercializzati attualmente hanno schede video SVGA,
questo è lo standard più frequente anche nei monitor. Il monitor CRT utilizza la stessa
tecnologia dei televisori, basata su un raggio catodico e sulla proprietà dei fosfori di
immagazzinare radiazioni luminose e di restituirle lentamente.
I fosfori formano delle righe di piccoli punti nella parte interna dello schermo. Partendo dal
tubo catodico, un raggio di elettroni colpisce i fosfori là dove l’immagine deve essere più
luminosa, passando su tutto schermo, riga a riga, e riprendendo il tragitto dall’inizio prima
che i fosfori abbiano esaurito la luminosità.
Noi, dalla parte esterna dello schermo, vediamo le emissioni luminose dei fosfori e le
immagini che formano. I fosfori sono di un solo colore nei monitor monocromatici, spesso
verdi, e di tre colori nei monitor a colori.
In questo caso i raggi di elettroni sono tre, uno per ogni colore di fosfori: rosso, giallo e blu
(per questo i monitor a colori sono chiamati RGB). Quando sono “accesi” tutti e tre i fosfori
adiacenti dei tre colori, si ottiene il bianco; quando sono spenti si ottiene il nero; quando
sono accesi con luminosità diverse si ottengono gli altri colori. A seconda della capacità
della scheda grafica di inviare segnali che “dosano” la forza del raggio di elettroni, si
possono visualizzare da 256 a 16,7 milioni di colori.
Più i fosfori sono piccoli e numerosi, meglio le immagini sullo schermo sono definite. Ogni
gruppo di tre fosfori forma il “pixel”, cioè il singolo punto luminoso sullo schermo, ed è
questa la misura della risoluzione del monitor. In un monitor con risoluzione di 1024x768
pixel sono presenti sullo schermo 1024 gruppi di fosfori, pixel, in larghezza e 768 pixel in
altezza.
La frequenza rappresenta la velocità con la quale il tubo catodico disegna l’immagine, il
cosidetto “refresh”, cioé “rinnovo” dell’immagine sullo schermo. Una frequenza inferiore a 75
MHz è sconsigliabile. Una frequenza di 85 MHz è quella media, mentre i monitor di alta
qualità superano i 100 MHz.
Se la frequenza è bassa, sullo schermo appare il “flickering”, cioè lo “sfarfallio”. In pratica i
fosfori perdono la luminosità prima che il tubo catodico rinnovi l’immagine con un altro
passaggio.
65
Monitor LCD
Gli schermi LCD ed a plasma sfruttano le caratteristiche di questi materiali di polarizzarsi,
cambiando colore, per gli effetti magnetici del passaggio di energia elettrica a bassa
intensità. Sostanze entrambe chiare, diventano scure, formando il testo o il grafico da
visualizzare. Le immagini originate sono spesso poco contrastate, per cui è frequente il
ricorso ad una illuminazione proveniente dal fondo dello schermo per renderle
maggiormente visibili.
Esistono sia schermi LCD che a plasma a colori, ma sono modelli alquanto costosi e dai
risultati mediocri. La pressoché totalità è monocromatica, con una strana particolarità: le
schermate che hanno fondo nero e caratteri chiari sui monitor CRT, hanno fondo chiaro e
caratteri scuri sugli schermi LCD e a plasma.
Gli schermi dei computer portatili, essendo integrati nella macchina, non presentano
problemi di abbinamento con la scheda video, anch’essa integrata nella scheda madre.
Nella maggior parte dei casi utilizzano lo standard VGA.
Alla corrispondenza fra standard della scheda video e standard del monitor fa eccezione un
particolare tipo, chiamato multisync, che è in grado di adattarsi alle diverse schede video,
comprese quelle che consentono una risoluzione speciale ed un alto numero di colori
visualizzabili.
Con un costo più alto rispetto ai monitor VGA, il multisync ha però una qualità nell’immagine
senz’altro superiore, anche a parità di standard. Essendo indipendente dalla scheda video,
un monitor multisync può consentire l’aggiornamento graduale di un computer, passando
dalla VGA alla SVGA ed infine ad una scheda grafica speciale senza doverlo sostituire.
Le dimensioni di un monitor non sono calcolate misurando la base e l’altezza, bensì la
diagonale in pollici. Uno schermo da 14 pollici ha una diagonale, dall’angolo in alto a sinistra
all’angolo in basso a destra, di 14 pollici. Anche in questo i monitor per computer hanno
imitato i televisori.
I monitor CRT di tipo multisync utilizzano due diversi modi di visualizzazione dell’immagine
sullo schermo:
-
il modo interlacciato, nel quale l’immagine è composta da due immagini parziali che si
alternano ad alta velocità: il raggio di elettroni disegna prima una parte dell’immagine e
quindi l’altra. Questo tipo di visualizzazione è ideale per la resa di immagini in
movimento, quindi di rara utilità nelle normali applicazioni;
- il modo non interlacciato, nel quale l’immagine è effettivamente unica, disegnata
completamente volta per volta dal raggio di elettroni. Il cambio di immagine sullo
schermo è più lento, adatto a schermate fisse.
-
Considerazioni finali
Il monitor deve essere scelto in funzione di due fattori:
- lo standard grafico della scheda video;
- le nostre necessità “visive”.
La scelta secondo lo standard grafico è semplice. Se la scheda è EGA il video deve essere
EGA, se la scheda è VGA il monitor deve essere VGA. L’unica eccezione è la scheda
SVGA/UVGA, che permette la presenza di un monitor VGA al posto di uno multisync.
Naturalmente in questo caso il monitor non potrà sfruttare tutte le funzionalità dello standard
superiore.
Riguardo alle nostre necessità, occorre valutare:
- il formato dello schermo;
- la qualità dell’immagine;
- le radiazioni.
66
Va inoltre effettuata la scelta fra video monocromatico ed a colori. Scelta questa ultima che
non è tanto di ordine economico, in quanto i due diversi tipi di monitor non hanno prezzi
molto distanti, grazie all’elevata produzione in serie.
Quando la risoluzione dell’immagine nei vecchi monitor a colori era insufficiente, veniva loro
preferito il monitor monocromatico per tutte le applicazioni nella quali lo sguardo doveva in
continuazione leggere sullo schermo. Le lettere erano meglio delineate e gli occhi si
stancavano di meno.
La risoluzione degli attuali monitor a colori è superiore a quella dei vecchi monocromatici,
quindi non sembra esserci alcun motivo per privarsi del colore. Tanto più se molti programmi
fanno uso del colore per rendere più facile l’uso, contrassegnando con colori diversi settori
diversi dello schermo, o tipologie di comandi.
Il formato e il tipo di visualizzazione sono direttamente collegabili esclusivamente al tipo di
lavoro che intendiamo svolgere. L’elaborazione di fotografie a colori richiede uno schermo
multisync non interlacciato da 21 pollici, la lavorazione di una rivista può essere svolta con
un monitor SVGA/UVGA da 15 o 16 pollici, mentre la videoscrittura o il data entry si
svolgono regolarmente con i monitor VGA da 13 o 14 pollici.
Nel caso che il computer serva per elaborazioni multimediali, è essenziale un monitor
multisync interlacciato.
Risoluzione a parte, la qualità dell’immagine è formata anche dal bilanciamento e dalla
saturazione dei colori. La costruzione interna di un monitor può essere molto diversa da
modello a modello, a seconda della qualità del tubo catodico e di tutti gli altri elementi
elettrici ed elettronici. Una immagine anche solo leggermente storta o fuori fuoco può
provocare consistenti danni alla vista. Se è fastidiosa in un televisore mentre scorrono le
immagini di un film, in uno schermo che abbiamo di fronte almeno otto ore al giorno è
insopportabile.
I controlli presenti sul monitor sono quelli della luminosità e del contrasto. Spesso è possibile
accedere ai comandi di ampiezza e centratura sia verticale che orizzontale dello schermo
sul retro. Nella gran parte dei monitor è anche presente un pulsante per eliminare l’elettricità
statica che si forma sulla superficie interna dello schermo e che altera i colori.
Il piedistallo girevole è un accessorio utile, se non indispensabile. Permette di orientale lo
schermo all’altezza del nostro sguardo, senza costringerci a posizione scomode, ed in
direzione più favorevole rispetto ai riflessi dell’illuminazione ambientale.
Una illuminazione errata o un cattivo posizionamento del computer rispetto alle fonti di luce
può causare gravi danni alla vista dell’utilizzatore e comunque un calo di produttività.
Lo schermo del monitor è in vetro e, come tutti i vetri, anche se trattato e pubblicizzato come
antiriflesso, fa da specchio. Le luci, le finestre, le pareti vi si riflettono e rendono confusa
l’immagine sullo schermo. Gli occhi si sforzano di distinguere i particolari e, oltre ad una
stanchezza con dolore ai bulbi oculari e mal di testa, può derivarne un calo dell’acutezza
visiva.
In un ufficio dove l’utilizzo dei computer è continuo e generalizzato, l’illuminazione dovrebbe
essere diffusa ed omogenea, evitando fonti di luce dirette sulla scrivania e preferendo luci
che, dalle pareti, illuminano il soffitto. La luce pervade l’ambiente diffusa dal soffitto.
Il monitor non deve essere rivolto verso una finestra, cui l’utilizzatore rivolge le spalle, in
quanto la sua luce si rifletterebbe sullo schermo. Né l’utilizzatore, lavorando al computer,
deve avere una finestra direttamente dietro il monitor, perché si accentuerebbe troppo il
contrasto fra le fronti luminose, finestra e monitor, e l’occhio dovrebbe fare un continuo
sforzo per calibrare l’apertura dell’iride.
In caso di problemi derivati da riflessi sullo schermo, è consigliabile installare uno schermo
aggiuntivo antiriflesso. I riflessi non si potranno mai eliminare del tutto, ma un buono
schermo aggiuntivo li può drasticamente ridurre.
67
Le radiazioni
Il problema delle razioni emesse dai tubi a raggi catodici è stato molto discusso ed
esaminato sotto tutti i punti di vista.
Mentre in molti paesi, Italia compresa, esistono normative che proibiscono esplicitamente la
permanenza davanti ad un video per molte ore consecutivamente, le opinioni e gli studi
presentati dai fabbricanti sono di tutt’altro avviso.
La tecnologia usata nei monitor è la stessa utilizzata per i televisori. Un sottile raggio
luminoso colpisce, con maggiore o minore intensità, una serie di particelle di fosfori che,
immagazzinando la luce, la restituiscono lentamente. Nei monitor a colori i raggi sono tre e i
fosfori sono di tre colori: giallo, blu e rosso.
I fosfori non rilasciano solo radiazioni luminose, ma anche altre radiazioni non visibili.
Secondo definitive prove di laboratorio è accertato che le radiazioni emesse dai monitor
CRT danneggiano le cellule umane.
E’ vero, replicano i produttori, ma la moderna tecnologia sta producendo monitor i cui fosfori
emettono una quantità di radiazioni così bassa, ed a così piccola intensità, che bastano
pochi centimetri d’aria a neutralizzarli. Queste radiazioni sono così deboli che l’aria è per
loro come un muro d’acciaio e, al confronto di un monitor, un televisore a colori da 26 pollici
è come una centrale nucleare rispetto ad un mulino a vento.
I monitor emettono anche radiazioni magnetiche. Per guidare il raggio di elettroni nel tubo
catodico, in modo da fargli comporre l’immagine sullo schermo, vengono usati dei potenti
magneti. Anche la forza magnetica ha provato la propria dannosità per le cellule umane,
senza alcuna ombra di dubbio.
Intervengono di nuovo i produttori. I magneti sono sul retro del tubo catodico, dalla parte
opposta dell’utilizzatore del computer. La direzione delle loro forze magnetiche è laterale. Ne
consegue che le parti più pericolose di un monitor sono il retro ed i due lati, non quella
frontale.
Chi corre i pericoli maggiori sono i colleghi di lavoro, coloro che siedono con la testa vicino
alla parte retrostante o laterale del monitor, non chi lavora al computer. Queste radiazioni
sono diminuite nei nuovi modelli, ma sono ancora consistenti, tanto da sconsigliare una
posizione di lavoro vicina al retro di un computer.
Il rimedio per le radiazioni può essere un buono schermo protettivo, che non sia
semplicemente un vetro antiriflesso, ma che contenga particelle di piombo, e non lavorare
mai con il viso troppo vicino al video.
Alcuni monitor vengono certificati “a bassa emissione di radiazioni” da laboratori privati, ma
in realtà non esiste nessun organismo sanitario ufficiale che ne possa effettuare una
omologazione e che possa dichiararne l’innocuità. Non esistono misure di radiazione
considerate “soglie minime”, né leggi in materia, e d’altra parte la letteratura medica al
riguardo delle effettive conseguenze della esposizione a monitor CRT è contraddittoria.
I monitor LCD ed a plasma sono totalmente esenti da radiazioni. Sono stati realizzati
monitor per personal desktop con queste tecnologie, tuttavia con scarsi risultati a causa
della cattiva risoluzione e della pessima leggibilità.
Schermi touch screen
Per talune applicazioni, come nei computer disponibili al pubblico per la consultazione
presso uffici pubblici od in occasione di fiere, è opportuno utilizzare monitor sensibili al
contatto, chiamati touch screen. Sullo schermo appaiono le diverse possibilità di
consultazione a disposizione, e l’utente tocca con un dito quella che intende richiedere.
In realtà la superficie dello schermo non è assolutamente sensibile al tocco del dito, anzi è di
normalissimo vetro. Lo schermo è però attraversato da sottili raggi infrarossi, simili a quelli
del cancelli automatici. Piccole cellule, nascoste nel un bordo interno della cornice del
monitor, rilevano i raggi e la loro eventuale interruzione a causa del dito poggiato sullo
schermo. Il programma calcola la posizione del dito grazie alle coordinate fornite dai raggi
interrotti.
68
E’ stato tentato di introdurre questo tipo di schermo anche nel normale lavoro di ufficio, ma il
lavoro ne risulta eccessivamente rallentato.
Oltre a monitor prodotti appositamente, è possibile adattare uno schermo normale a touch
screen, aggiungendo un adattatore che si monta sulla cornice.
Data show
La lavagna luminosa è uno strumento molto utilizzato nell’esecuzione di corsi, conferenze,
congressi. Uno speciale schermo a tecnologia LCD viene collegato fra scheda grafica e
monitor e permette, posto sul ripiano della lavagna luminosa, di proiettare le stesse
immagini presenti sul monitor del computer.
Questo schermo, chiamato data show, è pressoché identico a quelli utilizzati nei computer
portatili, ma ha un fondo di vetro anziché di plastica. La luce della lavagna luminosa lo
attraversa come se fosse un ordinario lucido di plastica trasparente.
Con un data show è possibile produrre delle schermate con scritte e grafici che, mostrate
l’una dopo l’altra, vanno a sostituire sia i lucidi didattici che le diapositive esplicative. I
vantaggi nell’utilizzarlo al posto dei metodi tradizionali sono la possibilità di effettuare
modifiche alle schermate anche all’ultimo momento, di modificarne la successione e di poter
richiamare ciascuna schermata in qualsiasi momento durante la proiezione anche più volte.
Videoregistratore
Tramite uno speciale modello di videoregistratore, collegabile alla porta seriale e dotato di
un microprocessore che possa scambiare comandi con il computer, è possibile effettuare
una registrazione su nastro. Si possono preparare serie di schermate fisse, oppure in
movimento. Il nastro può essere usato per una dimostrazione a distanza o per includere
spiegazioni su un prodotto
69
La tastiera
Lo scopo della tastiera è duplice. Da una parte serve per introdurre dati nel computer,
dall'altro per impartire i comandi per l'esecuzione delle elaborazioni.
La corrispondenza fra tastiera e schermo viene evidenziata dal cursore. Si tratta di un segno
di sottolineatura, di un blocchetto colorato o di una barretta verticale, che ci indica la
posizione nella quale appariranno i dati corrispondenti ai tasti che premiamo. Ogni volta che
premiamo il tasto di una lettera, questa appare sullo schermo al posto del cursore, e questo
si sposta sulla destra di una posizione.
Se stiamo lavorando con un programma di videoscrittura, il cursore sarà libro di muoversi
per tutto lo schermo, mentre se stiamo immettendo informazioni in una base di dati il cursore
potrà solo muoversi all'interno dei campi prestabiliti ed andare da un campo all'altro.
Il cursore, oltre che in seguito alla scrittura di un carattere, si muove anche per la pressione
di uno dei tasti cursore. Questi si trovano sulla tastiera, come vedremo.
Caratteristiche tecniche
Tasti alfanumerici
La parte principale della tastiera è dedicata ai tasti alfanumerici come quelli della macchina
da scrivere, anche se ordinati in maniera diversa. Ciò consente di introdurre qualsiasi tipo di
dati: lettere, cifre, segni di punteggiatura, segni matematici, caratteri come lettere accentate
o parentesi.
Insieme ai tasti ordinari, sono presenti due tasti modificatori che, premuti insieme ad altri
tasti, assumono funzioni particolari.
Questi tasti sono contrassegnati come:
- Ctrl o Control
- Alt
Le diverse combinazioni di tasti, ed il loro eventuale significato, sono determinate dal
software che è in esecuzione in quel momento. Alcune funzioni sono abbastanza frequenti,
come quella Alt e lettera "X" che provoca l'uscita dal programma, e Ctrl e lettera "C" per
interrompere l'esecuzione di un comando.
Alcuni tasti di lettere, se premuti insieme al tasto Alt, producono segni grafici particolari. In
ogni caso, il tasto modificatore e la lettera abbinata vanno premuti contemporaneamente.
La particolare combinazione di tasti
Ctrl Alt Del
premuti contemporaneamente, provoca il riavvio del computer, con la stessa conseguenza
di spengerlo e riaccenderlo. Qualunque programma o lavoro sia in quel momento in
esecuzione o presente in memoria, viene cancellato.
Nella parte alfanumerica della tastiera troviamo anche:
-
Backspace, per cancellare il carattere che si trova alla sinistra del cursore;
- Return, per terminare il paragrafo in scrittura e mandare il cursore all'inizio della riga
nuova. Nei programmi di gestione delle basi di dati questo tasto conclude l'elaborazione
della schermata;
- Tab, che sposta il cursore di un tabulatore. Nei programmi di gestione delle basi di dati
questo tasto fa passare il cursore al campo successivo;
- Shift, se premuto insieme ad un tasto alfanumerico, provoca la scrittura della lettera
maiuscola, del numero e del carattere speciale rappresentato nella parte superiore del
tasto;
- Caps Lock, rende fissa la, funzione di Shift, finché non viene nuovamente premuto.
70
Tastierino numerico
La parte destra della tastiera è invece dedicata ai tasti numerici, in similitudine delle
calcolatrici da tavolo. I tasti numerici sono raggruppati per consentire l'introduzione rapida
delle cifre. Accanto si trovano i tasti degli operatori di divisione, moltiplicazione, sommatoria,
sottrazione ed uguale. Sia i tasti numerici che quelli degli operatori sono ripetuti, in quanto si
trovano sia nel tastierino che nell'insieme dei tasti ordinari.
Spesso il tastierino numerico ha un doppio uso. Il tasto in alto a sinistra, contrassegnato
"Num Lock" fa alternare le due funzioni.
Se "Num Lock" è attivo, e ciò è segnalato da una spia luminosa che si accende, il tastierino
ha la sua funzione numerica.
Se "Num Lock" è sbloccato, e la spia spenta, i tasti assumono funzioni speciali come:
- PgUp, che torna indietro nella visualizzazione di una schermata;
- PgDown, che avanza nella visualizzazione di una schermata;
- Home, che pone il cursore all'angolo in alto a sinistra dello schermo;
- End, che pone il cursore all'angolo in basso a destra dello schermo;
- Ins, per inserire uno spazio vuoto fra due caratteri nei programmi di videoscrittura;
- Del, per cancellare il carattere su cui si trova il cursore nei programmi di videoscrittura;
- quattro tasti cursore, contrassegnati da una freccia. Premendoli, il cursore si sposta sullo
schermo di una posizione con la direzione corrispondente alla freccia.
Fra la tastiera alfanumerica ed il tastierino numerico, si trovano altri tasti speciali:
- PgUp;
- PgDown;
- Home;
- End;
- quattro tasti cursore;
duplicati rispetto a quelli presenti in seconda funzione sul tastierino numerico.
Tasti funzione
Nella parte superiore della tastiera troviamo:
- Esc, che permette di rinunciare ad un comando impartito;
- 12 tasti funzione, contrassegnati da "F1" a "F12". Questi tasti assumono diversi significati a
seconda del programma che è in esecuzione;
- PrtSc, che invia alla stampante una copia dell'immagine attuale dello schermo;
- Scroll Lock, per bloccare lo scorrimento di informazioni sullo schermo;
- Pause, interrompere l'esecuzione di un comando.
I tasti funzione sono molto importanti, perché spesso riassumono intere sequenze di tasti,
permettendoci di lavorare con maggiore velocità e speditezza. Spesso il programma in
esecuzione visualizza nella parte bassa dello schermo i significati dei vari tasti abilitati.
In alcune tastiere di vecchio tipo, chiamate tastiere "standard", ma che in realtà non sono più
prodotte, i tasti funzione sono situati in due colonne sulla sinistra della tastiera. Questo tipo
di tastiere avevano solamente 83 tasti, mentre le tastiere attualmente in commercio,
chiamate tastiere "estese" hanno 101 tasti.
71
Considerazioni finali
La nazionalizzazione
La maggior parte delle tastiere vengono prodotte per il mercato americano, ma non
esistendo in inglese le lettere accentate, non vi sono tasti per produrle sullo schermo. A
parte la lingua inglese, tutti i linguaggi esistenti utilizzano lettere accentate e caratteri
speciali, ed ogni alfabeto ne possiede di diverse.
Le lingue nordiche, ad esempio, hanno una lettera "O" sbarrata ed una lettera formata da
"A" ed "E" unite. Gli spagnoli hanno il punto interrogativo e quello esclamativo capovolti,
oltre alla "n" con la cediglia. Le lingue slave usano una "I" ed una "L" sbarrate. Esistono poi
lettere maiuscole sovrastate da accenti, due punti od un pallino, e così anche molte vocali
minuscole.
L'elenco può essere molto lungo, e per ogni lingua deve esistere una tastiera particolare che
ne rappresenti, sui tasti, i segni speciali. Solo così i computer possono essere utilizzati in
tutto il mondo.
Considerando i paesi occidentali ed europei, sono state prodotte venti tipi di tastiere con
impostazioni diverse. Per non parlare delle tastiere per i paesi arabi od orientali, nei quali
l'alfabeto è totalmente diverso.
La nazionalizzazione è un aspetto molto importante, perché avere un computer con una
tastiera non italiana vuol dire non poter scrivere correttamente molte parole. Tutte le lettere
accentate dovranno essere digitate senza, facendole seguire da un accento. Se talune volte
ciò è tollerabile, nella gran parte dei casi non lo è. Tanto più se un computer con la tastiera
italiana ha un costo uguale ad un altro con la tastiera americana.
La nazionalizzazione della tastiera deve essere comunque indicata con un apposito
comando al sistema operativo, altrimenti nessun programma la potrebbe utilizzare ed i
caratteri che appaiono sullo schermo sarebbero differenti da quelli che contrassegnano i
tasti.
Qualità della tastiera
Lavorando molte ore di seguito ad un computer, digitando in continuazione, è facile sentire
le dita indolenzite o l'articolazione del polso. Sono due situazioni patologiche derivate
dall'uso di una tastiera inadatta nella pressione sui tasti, la seconda nell'inclinazione della
tastiera.
Non è possibile definire uno standard oggettivo per giudicare una "buona" tastiera e il
criterio di scelta è una prova almeno di qualche minuto di digitazione.
I tasti non devo essere né troppo duri da premere, né troppo cedevoli. Nel primo caso si ha
un affaticamento eccessivo a causa dello sforzo dei muscoli delle dita, nel secondo l'arrivo
troppo violento a fine corsa dei tasti provoca una serie di microtraumi che si ripercuotono sui
legamenti.
La posizione ideale per scrivere vede i polsi appoggiati sul davanti della tastiera e le dita che
si protendono sui tasti. Se la tastiera è troppo o troppo poco inclinata, il polso dovrà
muoversi troppo e le dita troveranno difficoltà a raggiungere i tasti. Poiché la giusta
inclinazione è determinata dalla lunghezza delle dita, la tastiera da acquistare deve avere
assolutamente l'inclinazione regolabile di modo che si possa adattare alle nostre mani.
Una tastiera troppo bassa costringe i polsi ad alzarsi dal ripiano. La battitura con le mani che
si muovono sulla tastiera, senza appoggiarsi al tavolo, provoca un indolenzimento sia della
mano che dei muscoli del braccio.
Il problema è rappresentato dal fatto che ogni computer viene venduto con la sua tastiera,
senza possibilità di sostituzione gratuita.
Dovendo lavorare molto al computer, la tastiera ha una grossa importanza. Fra due personal
simili, a parità di costo e di prestazioni, la "piacevolezza" del tocco della tastiera è senz'altro
un motivo valido di selezione, molto più dell'aspetto estetico.
72
Il mouse
Il mouse è uno strumento essenziale di lavoro con il personal computer. Il suo uso è stato
introdotto solamente negli ultimi anni, con l’avvento dei sistemi operativi di tipo grafico nei
quali i comandi, che prima venivano impartiti al computer tramite la digitazione sulla tastiera,
possono essere inviati tramite il movimento del mouse e la pressione di un suo tasto.
Nei personal venduti fino a qualche anno fa, infatti, il mouse non era compreso nella
configurazione base e doveva essere acquistato separatamente. Inoltre solamente una
piccola parte del software allora disponibile ne prevedeva l’uso. La gran parte dei programmi
che funzionavano sotto il sistema operativo DOS riconoscevano solamente i comandi
pervenuti dalla tastiera ed ignoravano i comandi del mouse. Ancor oggi, se mandiamo in
esecuzione un programma DOS, anche se all’interno di un sistema operativo grafico, il
mouse potrebbe non essere riconosciuto o comunque ha un uso molto limitato.
Il mouse rientra nella configurazione base dei personal venduti attualmente. Qualora si tratti
di personal portatili, viene sostituito da una track ball o da una touch pad.
Il mouse ha nella parte superiore due pulsanti: il pulsante sinistro e quello destro. Alcuni
modelli hanno tre pulsanti, nel qual caso il mouse viene fornito con un programma (installato
nel “pannello di controllo” del sistema operativo) che consente di attribuire al pulsante
centrale particolari operazioni o insiemi di comandi.
Il mouse utilizzato dai computer Apple Macintosh ha, invece, un solo pulsante.
Nella parte inferiore del mouse è presente un foro dal quale sporge lievemente una sfera di
plastica che trasmette al computer gli spostamenti effettuati trascinando il mouse sulla
nostra scrivania (preferibilmente utilizzando un apposito “tappetino per mouse” che ne
migliora l’attrito e ne conserva la pulizia).
Spostando il mouse, si sposta sullo schermo una freccia, chiamata “puntatore”. Tramite la
combinazione dei movimenti del puntatore (e quindi del mouse) e delle pressioni sui pulsanti
sinistro e destro, è possibile trasmettere al sistema operativo qualsiasi comando, come
l’eliminazione, la copia o lo spostamento di un file.
Il mouse è essenziale per lavorare con le ultime versioni di tutti i programmi. Anche se in
molti di questi è stata conservata la possibilità di impartire i comandi dalla tastiera, l’uso del
mouse consente comunque una maggiore facilità e velocità di lavoro.
Chi era abituato ad usare le combinazioni di tasti può continuare ad usarli, tuttavia in certe
parti delle nuove versioni, soprattutto quelle che riguardano l’aspetto grafico (spostamenti,
dimensionamenti, colori...) il mouse è indispensabile.
Le operazioni svolte con il mouse sono di quattro tipi:
• spostamento: si sposta il puntatore da una zona all’altra dello schermo (il mouse deve
“strisciare” sul tavolo, senza sollevarsi; qualora si incontri un ostacolo, si può sollevare il
mouse, portarlo in una zona del tavolo non ingombra e riprendere lo spostamento del
puntatore) senza premere alcun pulsante. Se ci si sposta in una zona “attiva” dello schermo,
il puntatore cambia forma (da freccia a croce, a doppia freccia, a mano, a dito...) per indicare
la possibilità di effettuare un’operazione tramite il trascinamento o il click;
• trascinamento: si sposta il puntatore da una zona all’altra dello schermo tenendo premuto
uno dei pulsanti. Il trascinamento termina quando rilasciamo il pulsante premuto, anche se
continua lo spostamento del puntatore. Se iniziamo questa operazione su un “oggetto”,
come l’icona di un file, trasciniamo con il puntatore anche quell’oggetto, andandolo a
depositare lì dove terminiamo il trascinamento;
• click: tenendo fermo il mouse, premiamo e subito rilasciamo uno dei pulsanti del mouse.
Clickare con il tasto sinistro o con quello destro su un oggetto (ad esempio l’icona di un file)
ha un diverso significato: con il tasto sinistro si effettua la selezione di quell’oggetto (cioè, su
di esso si applicherà il prossimo comando), clickando con il destro (con i programmi che ne
accettano l’uso) oltre a selezionare l’oggetto si provoca la comparsa sullo schermo di un
menu con i comandi applicabili in quel momento a quell’oggetto.
Quando è necessario selezionare un comando da un menu, attivare un’opzione o azionare
un “pulsante” sullo schermo, è necessario clickare con il pulsante sinistro. Più avanti in
questo libro, parlando dei sistemi operativi o del software, indicheremo “click” (per l’uso del
tasto sinistro) e “click/destro” a seconda dell’operazione da svolgere.
73
L’effetto del click singolo può essere modificato se si preme, contemporaneamente, uno dei
“tasti modificatori” della tastiera, come “ctrl” o “alt”: in questo caso indicheremo “click+ctrl”;
• doppio click: tenendo fermo il mouse, premiamo due volte, in rapida successione, il
pulsante sinistro del mouse. E’ necessario che il mouse non si sposti fra il primo e il secondo
click e che i due click siano molto rapidi, altrimenti il computer li interpreterà come due click
singoli.
L’utente inesperto, di solito, si trova a disagio lavorando con il mouse nei primi giorni di
“contatto” con il personal.
Gli errori più comuni sono quelli di spostare invece di trascinare, o viceversa, di fare doppio
click troppo lentamente, oppure di fare doppio click con un impeto tale da spostare il mouse
fra il primo ed il secondo click.
La difficoltà principale, comunque, è quella di “prendere la mira”. Spesso è necessario
clickare su oggetti molto piccoli, come linee o bordi, o caratteri di testo minuscoli.
Non appena “fatta la mano” all’uso del mouse, si lavora comunque con maggiore facilità e
con fasi d’apprendimento ridotte.
Mouse senza filo
Grazie ai raggi infrarossi, simili a quelli utilizzati dai telecomandi televisivi, può trasmettere al
computer gli impulsi di movimento senza essere collegato con un cavo.
Sembrerebbe una soluzione molto pratica, ma ha gli stessi inconvenienti dei telecomandi: è
soggetto all’esaurimento delle batterie che usa per alimentarsi, ed ha un raggio di azione
delimitato. Mentre i mouse normali vengono alimentati attraverso lo stesso cavo in cui
passano gli impulsi di movimento, quelli ad infrarossi usano batterie interne. La parte
antistante del mouse ha le cellule infrarosse e queste devono sempre essere puntate verso i
sensori collocati sul frontale del computer (se il mouse ad infrarossi è di serie) o sull’apposito
ricevitore. Basta spostare il mouse fuori dell’arco d’azione dei sensori o frapporre un
oggetto, un libro, una penna, fra questo ed i sensori che la sua azione si interrompe.
Se stiamo effettuando un trascinamento e, durante lo spostamento del mouse, un ostacolo
si frappone ai raggi infrarossi è come se avessimo rilasciato il pulsante del mouse.
La track ball
Una alternativa al mouse è costituita dalla track ball. Si tratta di un dispositivo che utilizza lo
stesso meccanismo del mouse, ma alla rovescia. Una sfera di plastica fuoriesce da un
contenitore: muovendo questa sfera, si impartisce il movimento al puntatore sullo schermo. Il
vantaggio è che la track ball resta ferma sul tavolo, mentre il mouse richiede sempre un
certo spazio sulla scrivania per poterlo muovere.
Le track ball sono state adottate nell’uso con i computer portatili. Un lato negativo del
mouse, proprio per questa sua richiesta di spazio su cui spostarsi, è l’impossibilità di utilizzo
in situazioni precarie, come nell’ufficio di un cliente, in auto, in treno, in una sala d’aspetto
aeroportuale. Dalle dimensioni molto più contenute rispetto alla versione da tavolo, è
incorporata direttamente nel computer portatile, al di sopra o al di sotto della tastiera,
perfettamente utilizzabile anche negli ambienti e nelle situazioni più disagevoli.
Presenta due tasti che hanno le stesse funzioni dei pulsanti del mouse.
La touch pad
I nuovi modelli di computer portatili, invece della track ball, hanno una touch pad per
svolgere le funzioni del mouse. Si tratta di una piccola superficie rettangolare sensibile alla
pressione. Spostando il dito su questa superficie, dei sensori raccolgono i cambiamenti di
pressione e li trasmettono al computer, facendo spostare il puntatore sullo schermo.
Anche in questo caso sono presenti due tasti che hanno le stesse funzioni dei pulsanti del
mouse.
E’ leggermente più difficile da usare rispetto alla track ball, almeno fino a quando non se ne
prende l’abitudine. Ha però un aspetto positivo: non raccoglie tutto quello sporco che,
entrando con la rotazione della pallina, va a finire sui sensori o nel meccanismo di track ball
e mouse provocando disturbi di funzionamento.
74
La tavoletta grafica
Il mouse non è lo strumento ideale per disegnare. Molto più precisa ed efficace è la tavoletta
grafica. Sulla sua superficie, sensibile alla pressione, si può disegnare con un apposito stilo.
Il disegno può essere a mano libera oppure, utilizzando il tracciamento automatico di linee
rette o curve, tecnico.
Sulla tavoletta, intorno allo spazio destinato al disegno, sono spesso disponibili una vasta
gamma di comandi di elaborazione del disegno stesso, come opzioni per il colore,
l’ingrandimento ed altri effetti grafici che vengano resi disponibili dal programma. Le tavolette
grafiche possono essere usate esclusivamente con i programmi che le prevedono, in genere
software di disegno industriale o di architettura.
Il joystick
E’ utilizzato esclusivamente per i giochi, assumendo ad esempio la funzione di guida di un
aereo o di un carrarmato. Non ha alcuna applicazione di lavoro e nei giochi stessi ormai è
spesso sostituito dal mouse. Esistono anche delle pad speciali, dedicate ai giochi, a
somiglianza di quelle proprie delle console specializzate di videogiochi.
Nei computer Apple Macintosh non è possibile collegare un joystick
75
Le stampanti
Nonostante si dica che, con l’uso del computer, l’ufficio del futuro sarà un ufficio senza carta,
la stampante è il complemento ideale ed essenziale di ogni computer.
Nel tempo ha avuto numerosi e notevoli cambiamenti tecnologici, che ne hanno agevolato la
diffusione e l’uso. Dopotutto è ancora più facile stampare su carta una lettera che registrarla
su un CD-ROM, ed è più rapido trovarla in una cartellina di un raccoglitore che in un archivio
digitalizzato. Ed è ancora più economico.
Le stampanti di alcuni anni fa erano ingombranti, rumorosissime e lente. Ne esistevano solo
due tipi: a caratteri (con una testina identica a quelle delle macchine da scrivere
elettroniche) o a matrice di punti. Con le prime, molto più costose, si potevano produrre
lettere e documenti di buona qualità (identiche a quelle prodotte da una macchina da
scrivere, appunto), mentre le seconde servivano a produrre tabulati su moduli a carta
continua, spesso dalla lettura abbastanza difficile.
Evoluzione delle stampanti
La prima evoluzione si ebbe con l’introduzione di stampanti a matrice di punti capaci di
stampare con la stessa qualità delle stampanti a testina rotante.
Le stampanti a matrice di punti utilizzano una testina ad aghi. Ogni carattere che deve
essere scritto sul foglio, viene riprodotto da un insieme di punti. Dalla testina fuoriescono, ad
alta velocità, alcuni aghi che, battendo sulla carta attraverso il nastro inchiostrato, vi lasciano
impressa la matrice di punti che forma il carattere.
Le prime stampanti di questo tipo avevano una testina con nove aghi messi in colonna e la
matrice veniva composta da quattro colonne. Ciascun carattere poteva essere disegnato,
quindi un massimo di 36 punti, con una scarsa leggibilità soprattutto di lettere più
complesse, come la “g” minuscola. Con l’introduzione di testine a 24 aghi, la qualità di
stampa crebbe fino ad arrivare alla stessa qualità delle macchine da scrivere.
La seconda evoluzione, ancora più importante, avvenne quando vennero introdotte le
stampanti laser. Questo tipo di stampante, che ereditava il meccanismo di stampa da quello
delle fotocopiatici, ha reso possibile produrre alla qualità della stampa tipografica ed ha
risolto il problema di stampare piccole quantità di circolari, depliant e notiziari.
Dopo alcuni tentativi con tecnologie diverse, come le stampanti a sublimazione e quelle a
cera, si è arrivati alla terza evoluzione con le stampanti a getto d’inchiostro. Queste hanno
unito l’economicità alla qualità. Utilizzando un inchiostro liquido che viene “sparato” in
piccolissime gocce sul foglio di carta, riescono a raggiungere la qualità delle stampanti laser
con dimensioni e costi molto inferiore. Hanno anche consentito di produrre stampe a colori,
negli ultimi modelli, di qualità paragonabile alle tradizionali stampe fotografiche.
Caratteristiche tecniche
Sono molte le caratteristiche tecniche che differenziano le stampanti, anche all’interno dello
stesso metodo di stampa, e che vanno analizzate per identificare la stampante più adatta ai
nostri bisogni:
•
alimentazione della carta: a foglio singolo od a modulo continuo. La stampa a
foglio singolo permette di cambiare rapidamente tipo di carta, di stampare a volte
anche su cartoncino e buste, carta intestata e prestampata, lucidi per proiezioni. La
stampa a modulo continuo (presente quasi solamente sulle stampanti a matrice di
punti) è più indicata, invece, per la produzione di copie supplementari, stampate
contemporaneamente grazie a moduli sovrapposti di carta chimica;
•
formato della carta: può essere indicata nel numero di colonne stampabili (80 o
132), in centimetri (da un minimo di 21 cm di larghezza in su), o in formati standard
(formato A3, A4, A5, B5...). Alcune stampanti possono produrre striscioni, manifesti
o grossi fogli per il disegno tecnico;
•
velocità di stampa: viene calcolata in caratteri per secondo (sigla: cps) oppure in
pagine per minuto (sigla: ppm). Può variare, nella stessa stampante, a seconda del
formato della carta o della risoluzione scelta;
76
•
risoluzione: tranne le stampanti a margherita, tutte le altre formano i caratteri e le
immagini sulla carta imprimendovi dei punti. Maggiore è il numero dei punti e
maggiore la loro vicinanza, più leggibile è lo stampato. La risoluzione viene
espressa nella quantità di punti per pollice, espressa anche dalla sigla dpi, dot per
inch. Nella stessa stampante è possibile spesso scegliere di stampare a risoluzioni
diverse;
•
affidabilità: è il tempo medio prevedibile fra due guasti, secondo le dichiarazioni del
produttore (sigla: MTBF);
•
durata della testina: espressa dalla quantità di pagine (o di caratteri) stampabili
prima di dover sostituire la testina. Nei modelli più recenti il produttore dichiara la
testina come permanente, poiché la sua vita quivale o supera quella della stessa
stampante. Nelle stampanti laser non esiste testina, nel qual caso di tratta della
quantità di copie dopo le quali è necessario sostituire il tamburo di stampa (in molte
stampa laser, comunque, il tamburo è compreso nella stessa cartuccia che contiene
il toner e quindi, cambiando il toner si cambia anche il tamburo);
•
durata del nastro o della cartuccia: esprime la quantità di caratteri o di pagine che
è possibile stampare prima di dover cambiara il nastro, la cartuccia di inchiostro o il
toner;
•
interfaccia: determina la possibilità di collegamento (in rete o ad un singolo
personal, PC o Macintosh);
•
emulazione e driver: riguarda la compatibilità con i diversi sistemi operativi e le
diverse versione degli stessi. Il driver, ad esempio, può permettere anche
prestazioni avanzate, come la stampa in negativo, la stampa rovesciata, la stampa
ridotta o ingrandita, la riproduzione dei grigi fotografici, la stampa in grigio di un
documento a colori, la stampa di un solo colore per volta (separazione dei colori);
•
memoria di buffer: maggiore è la RAM presente nella stampante (a volte
espandibile tramite SIMM) e maggiore è la quantità di dati che la stampante può
ricevere ed immagazzinare nel buffer in attesa di stamparli. Non influenza la velocità
di stampa (che è un fattore puramente meccanico) quanto la velocità con la quale la
stampante “libera” il computer dalle istruzioni di stampa. Il personal può inviare una,
due o più pagine alla stampante e quindi tornare ad essere disponibile per l’utente,
mentre la stampante provvede indipendentemente alla stampa;
•
condizioni di funzionamento: oltre ai limiti di temperatura ed umidità nei quali
funziona la stampante, è importante il livello sonoro di funzionamento. In pratica è la
rumorosità (espressa in decibel) della stampante, elemento molto importante
quando la stampante deve funzionare in un ambiente chiuso e ristretto, come nella
maggior parte dei casi. La rumorosità è molto importante nelle stampanti a matrice
di punti, contenuta nelle laser e quasi irrilevante in quelle a getto d’inchiostro;
•
certificazioni: riguarda la conformità dell’apparecchiatura alle norme sulla sicurezza
elettrica, all’ergonomicità, al risparmio energetico e al rispetto dell’ambiente;
•
colori: la maggior parte delle stampanti ha un solo colore, il nero. Alcuni tipi di
stampanti (getto d’inchiostro, cera, sublimazione) hanno la possibilità di stampare
copie a colori con un’ottima qualità. In genere si distinguono stampanti RGB a tre
colori (qualità inferiore, con una resa approssimativa dei colori), CMYK a quattro
colori (con resa buona o ottima, paragonabile alla stampa tipografica) od a sei colori
(con una resa di tipo fotografico). Qualore sia importante la fedeltà ai colori (ad
esempio per bozzetti di fotografie o di grafici da pubblicare tipograficamente) è
necessario che la stampante abbia un sistema di calibrazione del colore;
•
font: riguarda la capacità di stampare con caratteri diversi. E’ importante che la
stampante possa riprodurre (eventualmente con un dispositivo opzionale), oltre ai
caratteri eventualmente installati in ROM, qualsiasi altro carattere installato dal
computer, ad esempio i codici a barre.
77
Stampanti a matrice di punti
Sono il primo tipo di stampanti, prodotte da molti anni ma tutt’ora le preferibili quando si
tratta di stampare un grande numero di dati nel più breve tempo possibile, con un costo che
sia il più basso possibile. Sono anche chiamate “stampanti ad impatto”.
La stampa è simile a quella della macchina da scrivere elettroniche, ma invece di avere una
testina con una serie di caratteri metallici od in plastica, utilizza una serie di aghi in acciaio.
Questi colpiscono la carta attraverso un nastro inchiostrato e lasciano l’impronta del
carattere, una “matrice di punti”.
La testina è formata da una linea verticale di aghi. Via via che la testina si muove lungo la
riga, un impulso elettrico proietta fuori le punte degli aghi, che subito rientrano. Ogni punta
imprime un segno sulla carta e l’insieme di questi punti forma una lettera.
Il carattere formato sulla carta non è regolare e ben delineato, ed anche ad occhio nudo
rivela la composizione in punti. La risoluzione del carattere migliora con l’aumentare del
numero dei punti. Le stampanti normali hanno una testina con una fila di 9 aghi, mentre in
quelle con prestazioni migliori gli aghi della testina sono 24.
La qualità di stampa più modesta viene chiamata “draft”, mentre le testine con 24 aghi
consentono anche qualità “NLQ” (Near Letter Quality) e “LQ” (Letter Quality).
Una caratteristica negativa è il rumore. Il continuo battito delle punte d’acciaio può produrre
un rumore fastidiosissimo. E’ importante accertarsi che il produttore abbia utilizzato materiali
e tecnologie recenti nella costruzione della stampante e controllare il livello di rumorosità
dichiarato, espresso in decibel (dB).
Queste stampanti accettano sempre la carta a modulo continuo, mentre per i fogli singoli
occorre un apposito cassetto o inseritore.
Il meccanismo di alimentazione della carta può essere a trascinamento, a spinta o entrambi.
L’alimentazione a spinta è preferibile, perché consente di stampare anche nelle prime righe
del foglio.
Di solito, con i moduli continui, il meccanismo usa i “trattori”, cioè una cinghia con dei rilievi
che si inseriscono nella bande perforate ai lati dei fogli. Per i fogli singoli, invece, si usa il
trascinamento “a frizione”, cioè prendendo il foglio fra due rulli che ruotano.
Il percorso che la carta compie all’interno della stampante è, a volte, molto complesso. E’
necessario che questo percorso possa essere semplificato se la stampante deve essere
utilizzata anche per la stampa di etichette adesive a modulo continuo che, se costrette a
compiere angoli troppo stretti, si sollevano dal supporto e si incollano ai rulli della stampante.
Esistono stampanti sia a 80 che a 132 colonne. Consente la produzione di copie carbone od
in carta chimica autocopiante.
La velocità di stampa di queste apparecchiature è la più maggiore fra tutti i tipi di stampanti,
da meno di 100 (in qualità LQ) a più di 1000 caratteri al secondo (in qualita draft).
Una caratteristica delle stampanti a matrice di punti è di avere un pannello di comando
frontale con alcuni pulsanti che consentono di scegliere la font, la qualità e la densità di
stampa, l’avanzamento o l’arretramento del foglio nella stampante riga per riga (per
consentire l’esatta centratura nei moduli prestampati), l’emissione di un foglio in bianco
(“form feed”), per posizionare l’inizio del foglio sulla prima riga di stampa (“top of form”) ed
un pulsante (“on line”) per scollegare momentaneamente la stampante dal computer per
effettuare interventi di manutenzione (cambio del nastro, inceppamento della carta...).
Esistono stampanti a colori, ma il risultato è esteticamente scarso.
Stampanti a caratteri
Con l’uso delle margherite di caratteri o con le testine rotanti, queste stampanti ottengono un
risultato esattamente uguale a quello di un foglio battuto a macchina. Si tratta però di
macchine ingombranti, rumorose anche più di quelle a matrici di punti, molto più costose e
lente.
Ormai sono poco diffuse, e quasi totalmente assenti dal mercato dei personal.
Sono sempre munite di cassetti per l’alimentazione di fogli singoli, sia a 80 che a 132
colonne. Hanno anche cassetti speciali per le buste. Spesso i cassetti sono due, abbinati, e
la stampante può iniziare la stampa con un foglio dal primo cassetto e proseguire con i fogli
dell’altro cassetto. Utile per l’utilizzo di carta intestata diversa per il primo foglio.
Non stampa a colori. Consente la produzione di copie carbone od in carta autocopiante.
Altro aspetto negativo è la presenza della testina di stampa con i caratteri già formati. Ciò
non consente la stampa dei caratteri grafici e speciali presenti sulla tastiera, né quella di
immagini, grafici o disegni. Inoltre la margherita deve essere nazionalizzata, perché possa
78
stampare i corretti caratteri speciali.
Stampanti termiche
Sono state le prime concorrenti economiche delle stampanti a matrice di punti. La testina è
formata da alcune punte che non battono sulla carta, ma che la bruciano, utilizzando carta
speciale, che cambia colore anche a temperature moderate. Queste stampanti non fanno
alcun rumore.
L’uso di carta speciale è una seria controindicazione, essendo non solo costosa, ma di facile
deterioramento, lasciando lentamente sbiadire l’immagine. La risoluzione è ancora bassa.
Sono molto lente: fra 17 e 24 caratteri al secondo.
Accettano solo il formato A4, in carta speciale a rullo. Non è possibile la stampa a colori.
Anche questo tipo di stampante non viene più prodotta ed è raro trovarne in uso.
Stampanti a getto di inchiostro (ink-jet)
Si tratta di un tipo che ha recentemente avuto notevoli miglioramenti, con una riduzione
sensibile delle dimensioni, del prezzo e con una maggiore qualità nella stampa. Ha reso
inoltre economica e molto fedele la stampa a colori.
La testina passa sul foglio di carta schizzando un sottile getto di inchiostro da una fila di
ugelli. Dove il getto colpisce si forma un punto, e l’insieme dei punti forma il carattere. Anche
qui si tratta di una “matrice di punti” come nelle stampanti ad impatto, ma trattandosi di
gocce d’inchiostro invece che di aghi di acciaio, è possibile farne molto vicini ed anche
parzialmente sovrapposti.
Migliorando la tecnologia, le goccie d’inchiostro sono diventate sempre più piccole e precise.
Ne risultano caratteri formati da piccolissimi punti, quasi invisibili ad occhio nudo, e quindi
una stampa particolarmente nitida. La risoluzione ottenuta anche dai modelli più economici è
di 360 punti per pollice (dpi), per arrivare a 1440 per 720 dpi.
La risoluzione e la qualità di stampa aumentano in proporzione agli ugelli presenti sulla
testina. Vi sono testine a 21, 32, 48 o 64 ugelli per ogni colore o per il nero, e vi sono
stampanti a due testine (sino a 128 ugelli).
Il loro costo è basso, ormai sono le più economiche, al di sotto delle stampanti a matrice di
punti, e ciò le rende anche le più diffuse.
L’unico aspetto negativo di queste stampanti è la moderata velocità con la quale lavorano.
Nei modelli economici da 3 pagine per minuto (ppm) in un colore a 1,5 ppm a colori, nei
modelli più evoluti sino a 7 ppm a colori.
I primi modelli, e quelli più economici, accettano solo fogli singoli, di formato A4. I modelli più
evoluti accettano anche carta a modulo continuo, con trascinamento a “trattori” (cercando di
rimpiazzare le stampanti a matrice di punti), e con fogli di carta di grosse dimensioni, sino a
5 metri di lunghezza per oltre mezzo metro di larghezza (cercando di rimpiazzare i plotter).
Non essendoci un impatto meccanico sulla carta, ovviamente, non è possibile utilizzare
moduli continui di carta chimica autocopiante per effettuare la stampa su più copie.
Sono stati realizzati alcuni modelli molto compatti di stampanti a getto di inchiostro per
essere abbinate ai computer portatili ed ai notebook. Le dimensioni sono eccezionalmente
piccole, tali da occupare solo un terzo di una valigetta 24 ore, e senza alcun compromesso
con la qualità. La riduzione della parte meccanica ha però provocato un sensibile
rallentamento nella velocità: da 1 a 2 pagine al minuto.
Quasi tutte le stampanti a getto d’inchiostro sono a colori. E’ importante controllare di che
tipo sono le cartucce d’inchiostro. Prima di tutto, è meglio che ciascun colore sia
indipendente, in modo tale che se finisce il giallo, ad esempio, si possa sostituire solamente
la sua cartuccia e non l’intero caricatore. E’ comunque indispensabile che il nero abbia una
cartuccia separata, in quanto è il colore che si consuma più rapidamente.
Una evoluzione molto recente delle stampanti a getto d’inchiostro, è la stampante per
riproduzioni fotografiche. La qualità è veramente alta e la fedeltà dei colori assoluta, tanto
che è quasi impossibile distinguere ad occhio nudo una di queste stampe da una fotografia
sviluppata in un laboratorio.
Vengono utilizzati sei colori invece dei tradizionali quattro e due testine. La risoluzione molto
alta e l’accuratezza di stampa hanno come conseguenza una lentezza notevole: una
fotografia di 10 cm per 154 cm (formato standard delle fotografie commerciali) richiede 2
minuti.
E’ indubbio, però, che con il procedere della tecnologia queste stampanti saranno sempre
più veloci, fedeli nel colore, meno costose. Con la diffusione delle macchine fotografiche
digitali (vedi cap. 2.7) e se anche queste diminuiranno di costo, queste stampanti andranno
79
a sostituire l’uso dei laboratori fotografici per la stampa delle fotografie amatoriali e
turistiche.
Stampanti laser
La tecnologia delle stampanti laser è derivata da quella delle fotocopiatrici.
Un raggio laser molto sottile colpisce un tamburo in metallo elettrofotosensibile come il
selenio, modificandone la carica elettrica. Il tamburo passa quindi attraverso una sostanza in
polvere, che si attacca solamente alle zone caricate elettricamente.
Un rullo preme un foglio sul tamburo e la polvere si trasferisce sulla carta. Questa passa poi
attraverso due rulli ad alta temperatura che fondono la polvere, facendola solidificare sulla
carta.
Anche in questo caso i caratteri sulla carta sono composti da piccoli punti, nelle posizioni
colpite dal raggio laser. Essendo questo molto sottile, i punti sono quasi invisibili ed il
risultato ottimo. Inoltre la tecnica della polvere fusa produce una stampa con un nero
profondo e permanente.
Queste stampanti sono molto diffuse, nonostante il loro costo sia rimasto abbastanza alto,
perché producono una stampa confrontabile con quella ottenibile tipograficamente. Le
aziende possono così produrre circolari, relazioni, progetti, in un numero limitato di copie,
con costi accettabili e con la qualità che otterrebbero con la più costosa stampa tradizionale.
Quasi tutte le stampanti laser possono essere installata in rete, ed in effetti gran parte lo
sono. Con la sua buona velocità di stampa e con più cassetti di alimentazione per la carta
(uno per la carta intestata, uno per la carta bianca...), una stampante laser può soddisfare le
esigenze di molti personal, di un intero ufficio o di un piano. Sono le eredi naturali delle
vecchie “stampanti dipartimentali” a matrice di punti usate con i mainframe.
Le stampanti laser sono in genere dotate di diverse interfaccie per il collegamento con reti a
diversa tipologia ed architettura, hanno una quantità di memoria RAM abbastanza
consistente per il buffer (da 2 a 4 Mb, espandibile in genere fino a 64 Mb), posson stampare
qualsiasi font e tipo di grafico. Alcune hanno un driver che permette la stampa di buona
qualità della gamma dei grigi presenti nelle fotografie (che in genere sono riprodotte
malamente dalle laser).
La risoluzione delle stampanti laser più diffuse è di 300 punti per pollice, mentre i modelli più
costosi arrivano a 400 ed a 600 punti per pollice. La velocità di stampa varia da 6 a 45
pagine al minuto.
La maggior parte di queste stampanti accetta solamente fogli A4 e stampa in bianco e nero.
Esistono pochi modelli che stampano su carta in formato A3. Sono anche stati effettuati
tentativi di produrre stampanti laser a colori, ma la scarsa qualità ed il costo alto hanno
lavorato a sfavore lasciando il sopravvento a quelle a getto d’inchiostro.
Alcune laser possono montare un dispositivo per la stampa sul fronte e sul retro dello stesso
foglio, mentre un altro dispositivo consente di collegarle a fascicolatori ed allestitori.
Altre stampanti a colori
La tecnologia della stampa a colori è tutt’ora in piena evoluzione, con u n ritardo di tre o
quattro anni rispetto a quella in bianco e nero. E’ prevedibile un continuo miglioramento dei
meccanismi di stampa e l’introduzione di nuovi tipi di stampanti.
E’ in sperimentazione una stampate a colori wax-jet, che risulta la combinazione di una
stampante a getto d’inchiostro e di una thermal-wax. La testina funziona come quella a getto
di inchiostro, salvo che produce un getto di cera colorata fusa che si posa sulla carta. Il
foglio viene quindi fatto passare fra due rulli che lo sottopongono ad una pressione
fortissima per fissare la cera alla carta.
Un ulteriore tipo di stampante si rifà in gran parte alla tecnologia delle stampanti laser tranne
per il fatto che non è un raggio luminoso a magnetizzare la superficie del rullo metallico di
stampa, bensì una fina di minuscoli led.
Tuttavia la qualità, l’affidabilità e il costo contenuto delle stampanti a getto d’inchiostro, fanno
ritenere che queste avranno il monopolio della stampa a colori.
80
La compatibilità
Un capitolo molto delicato, parlando di stampanti, è quello della compatibilità.
E’ quasi impossibile trovare una stampante che funzioni sempre con tutti i programmi. Si
rischia di acquistare una stampante e di scoprire che questa non riesce a “dialogare” con il
programma con il quale lavoriamo.
Questo problema è piuttosto grave con i programmi di vecchia concezione, basati su DOS,
con i quali non è sempre possibile né facile inserire nuove stampanti. Ogni programma ha
una lista di stampanti con le quali è compatibile. Ed ogni stampante ha una serie di
emulazioni e di compatibilità. E’ necessario che le caratteristiche richieste dal programma e
quelle presentate dalla stampante coincidano.
Lavorando con i sistemi operativi Windows ‘95/97 o Macintosh, nei quali la stampante non è
gestita direttamente dal programma ma dal sistema operativo, è necessario che la
stampante ne indichi la compatibilità nelle sue caratteristiche e che sia accompagnata da un
dischetto con il driver opportuno, che deve essere installato nel sistema operativo.
Un altro problema da tenere presente è quella dell’interfaccia. E’ necessario controllare che
l’interfaccia presente sulla stampante coincida su quella presente sul computer. Altrimenti
non si riuscirà nemmeno a collegare il cavo della stampante al computer.
Postscript
Molte fra le stampanti laser, quelle a getto d’inchiostro, quelle thermal-wax e quelle a
sublimazione adottano un linguaggio di programmazione particolare, chiamato Postscript.
Se la stampa viene effettuata da un programma che adotta lo stesso linguaggio, la stampa
avviene ad alta qualità sia nel testo che nelle immagini.
La presenza di questo linguaggio in una stampante è molto importante. E’ un suo merito se i
risultati sono molto simili a quelli ottenibili con la stampa tipografica. Altrimenti i caratteri
stampati avrebbero la stessa risoluzione e forma di quelli che appaiono sullo schermo, cioè
deformati e spigolosi.
Costi accessori
Nell’acquisto di una stampante vanno considerati anche i costi accessori.
I nastri, le cartucce di inchiostro, i toner... è bene documentarsi sulla durata e sul consumo di
questi elementi, alcuni dei quali rappresentano un costo notevole, specialmente per la
stampa a colori.
Conviene accertarsi anche della durata della testina o del meccanismo di stampa. Questi
elementi hanno una vita fissata in un determinato numero di passaggi. Nel costo della
stampante bisogna includere anche il cambio del tamburo e del motore delle stampanti
laser, o della testina nelle altre.
L’efficienza, inoltre, ha i suoi costi. Mentre una stampante a matrice di punti può essere
largamente produttiva anche oltre il migliaio di pagine al mese, una stampante a getto di
inchiostro inizia ad essere controproducente anche dopo qualche centinaio. Al contrario,
acquistare una stampante laser per produrre meno di mille fogli al mese, non costituisce un
buon ammortizzamento della macchina.
Lavorando in un ambiente con molti personal, occorre valutare se convenga una sola
stampante laser dipartimentale di rete veloce, anche se costosa, piuttosto che molte
stampanti a getto d’inchiostro, anche se economiche.
Per le stampanti a colori è un discorso diverso. Si tratta più della loro necessità, piuttosto
che della loro convenienza.
81
Plotter
Un caso particolare di periferica di stampa è il plotter. Si tratta di una apparecchiatura
particolare, che sostituisce il disegnatore tecnico.
La ricerca di un plotter va abbinata alla ricerca del software da utilizzare per effettuare il
disegno, sia per i noti problemi di compatibilità, sia perché le caratteristiche del plotter e
quelle del programma di disegno devono coincidere (dimensioni del foglio di lavoro, colori...).
Il meccanismo di stampa del plotter è costituito da un certo numero, variabile, di pennini
colorati che disegnano su un foglio molto largo. Spesso il meccanismo è così complesso che
si muovono sia i pennini (in orizzontale) che il foglio (avanti e indietro).
Il plotter viene utilizzato nel disegno d’architettura ed in quello industriale, con risultati
superiori al disegno manuale. E’ essenziale nelle modifiche dei disegni, potendo produrre un
disegno del tutto nuovo e non uno corretto. Del resto il costo di un plotter è molto alto, a
volte superiore a quello del computer. Gli stessi programmi di disegno sono fra i software più
costosi. Il tutto ne fa uno strumento altamente professionale.
82
Scanner e fotocamere digitali
Molto spesso è utile introdurre informazioni grafiche nel computer, come digitalizzare una
fotografia, un grafico od un testo.
Questo compito è svolto da una apparecchiatura chiamata scanner. Le foto ed i disegni
ripresi dallo scanner, convertiti in dati digitali e registrati su disco, possono essere stampati,
rielaborati e modificati a piacere.
Esistono programmi per il ritocco fotografico e per il disegno, attraverso i quali è possibile
importare l’immagine digitalizzata con lo scanner ed effettuarne tutte le modifiche
necessarie. La potenza di questi programmi consente di alterare le fotografie e di produrne
di completamente false, così come di inserire frammenti di queste nei disegni e viceversa. Si
può tagliare un’immagine, ingrandirla o ridurla, ribaltarla, ruotarla, correggere l’esposizione,
correggere la mesa a fuoco, correggere il contrasto o la luminosità, sostituire i colori o
produrre particolari effetti di rilievo, sfaccettatura, vento, mosaico...
Lo scanner ha largo impiego nel campo della grafica computerizzata, alla quale serve anche
come modello di “ricalco” o come base per realizzare illustrazioni, marchi o logotipi. Nel
campo dell’editoria, sia aziendale che commerciale, e della pubblicità, lo scanner serve per
inserire direttamente le foto nei bozzetti, evitando costose e lente lavorazioni presso
laboratori specializzati.
Lo scanner è anche utili con un particolare tipo di applicazione, chiamato riconoscimento
ottico di caratteri (OCR), che prevede l’interpretazione di normali fogli dattiloscritti
ricavandone il testo scritto, così come se fosse stato digitato direttamente sul computer, con
percentuali di errori minime in caso di originali di buona qualità. Questa applicazione è
particolarmente utile per evitare la ribattitura di testi già esistenti stampati o dattiloscritti, che
basta “passare” nello scanner.
I programmi di riconoscimento ottico dei caratteri sono però molto sensibili alla qualità degli
originali. Testi in fotocopia sbiadita oppure con stampa difettosa, vengono interpretati con
moltissimi errori, tanti da renderne inutile l’interpretazione.
Una delle ultime novità tecnologiche sono le fotocamere digitali. Queste macchine
fotografiche, esternamente identiche a quelle tradizionali, effettuano direttamente la
digitalizzazione dell’immagine senza bisogno del passaggio su carta fotografica, perché poi
l’immagine, trasferita via cavo al computer, possa avere tutte le elaborazioni possibili nei
programmi di ritocco fotografico di cui si è parlato più sopra.
Gli scanner
Dal punto di vista meccanico, gli scanner si possono dividere in:
• scanner a ripresa in piano;
• scanner a rullo;
• scanner a tamburo;
• scanner per pellicola;
• scanner su stativo;
• scanner manuali.
Scanner a ripresa in piano
Uno scanner a ripresa in piano è costituito, in pratica, dalla parte superiore di una
fotocopiatrice. I fogli vengono poggiati su un ripiano in vetro, al di sotto del quale scorre una
forte luce, uno specchio ed un obiettivo. All’inizio della ripresa il gruppo ottico, formato da
luce, specchio ed obiettivo, si sposta effettuando una ripresa di tutto il foglio. Il ripiano, con il
foglio, rimane fermo.
A differenza della fotocopiatrice, le immagini non vengono inviate ad un rullo di stampa, ma
al computer attraverso la porta seriale. Un programma trasforma i segnali in immagini
digitalizzate, che vengono registrate sul disco. Questo software è il programma “pilota” dello
scanner e quasi mai consente di modificare le immagini se non per la luminosità, il
contrasto, il taglio della ripresa ed il bilanciamento dei colori.
Molti scanner a ripresa in piano hanno la possibilità di montare uno speciale coperchio per la
ripresa dei film fotografici, diapositive o negativi, che contiene una forte fonte di luce. La
qualità della ripresa è inferiore a quella ottenuta con gli scanner per pellicola
Alcuni hanno anche la possibilità di montare al posto del coperchio, un meccanismo di
trascinamento con il quale è possibile scannerizzare una serie di fotografie o fogli singoli.
83
Questo è il tipo di scanner più diffuso. Inizialmente aveva una qualità inferiore di quelli a
tamburo, adesso non ha nulla da invidiare agli scanner professionali, né in risoluzione, né in
fedeltà, né in velocità.
E’ possibile acquisire immagini anche da pagine di libri, oggetti piccoli come biglietti da
visita, ritagli irregolari, fogli sottili (se ci sono problemi di trasparenza, cioè si intravede anche
l’immagine presente sul retro del foglio scannerizzato, è meglio frapporre un foglio nero fra
coperchio e foglio) e persino piccoli oggetti come orologi, penne, una mano... l’unica
precauzione è quella di tenere sempre il vetro accuratamente pulito.
Scanner a rullo
Lo scanner a trascinamento è privo del ripiano in vetro. Le fotografie od i fogli passano
attraverso un apposito inseritore e vengono trascinate sopra al gruppo di ripresa, uscendo
dalla parte opposta della macchina.
E’ più adatto per la scansione di fogli che di fotografie, in quanto queste, con la superficie
lucide e su carta fotografica rigida, spesso scivolano e si incastrano nel meccanismo di
trascinamento. Stesso discorso per fogli troppo sottili, che si inceppano o si rompono.
Un altro problema di questi scanner è che non accettano ritagli di fogli od oggetti di piccole
dimensioni (come biglietti da visita) e che non è possibile riprodurre immagini da libri.
Sono diffusi soprattutto come scanner economico per l’acquisizione di documenti (lettere) a
fogli singoli sia per l’archiviazione digitale che per l’OCR. Sono più economici degli scanner
a ripresa in piano, in quanto non hanno il complesso sistema di spostamento del gruppo
ottico.
ALcuni modelli permettono di staccare il gruppo ottico, che così può essere utilizzato, come
fosse uno scanner manuale, per leggere originali più grandi o per acquisire da pagine di
libro.
Scanner a tamburo
Lo scanner a tamburo è composto, invece, da un gruppo ottico fisso e da un cilindro, o
tamburo, sul quale si fissa la fotografia. Chiuso lo scanner, il tamburo inizia a ruotare
velocemente facendo passare la fotografia sul gruppo ottico.
Per la loro fedeltà, risoluzione e velocità, sono sempre stati utilizzati nei laboratori
professionali di fotocromia. Sono, infatti, gli eredi dei giganteschi scanner specializzati
utilizzati dai fotocromisti per le selezioni da stampa.
Fra i tipi di scanner, sono i più costosi. Ormai sono stati soppiantati dagli scanner a ripresa
in piano.
Scanner per pellicola
Lo scanner per pellicola può digitalizzare esclusivamente fotografie su diapositive o negativi
fotografici, di vari formati. La luce illumina il film da un verso, mentre dalla parte opposta un
obiettivo ne riprende l’immagine.
Non accetta, ovviamente, supporti opachi come fogli di carta.
Nonostante alcuni scanner a ripresa in piano siano dotati di un coperchio per i film, gli
scanner per pellicola sono sempre indispensabili per ricavare riproduzioni di qualità.
Essendo apparecchiature più precise, più complesse e meno diffuse, sono anche più
costose.
Scanner su stativo
Lo scanner su stativo presenta un ripiano sul quale vengono poste le fotografie, fissate ad
appositi rifermi per impedire che si muovano. Di lato sono presenti due o quattro forti
lampade, mentre dall’alto, ad una altezza modificabile, un obiettivo riprende l’immagine.
Lo scanner su stativo ha invece la possibilità di effettuare direttamente delle vere e proprie
fotografie, potendo poggiare sul ripiano oggetti di qualsiasi dimensione. D’altra parte la
digitalizzazione di fotografie o fogli singoli presenta difficoltà: l’originale si può spostare, si
può incurvare, è soggetto al deposito di sporchi e polvere che verrebbero ripresi con la foto
compromettendone l’immagine.
Le macchine fotografiche digitali li hanno completamente sostituiti.
Scanner manuale
Lo scanner manuale ha un gruppo di ripresa molto contenuto, di larghezza limitata, in una
impugnatura che è facilmente spostabile sulla fotografia, dall’alto verso il basso. Mentre si
84
trascina lo scanner sulla foto, il gruppo di ripresa passa davanti all’immagine.
Lo scanner manuale è senz’altro il modello più economico. Il piccolo gruppo di ripresa, una
diecina di centimetri, costringe però a passare più volte sulla stessa foto se questa ha una
larghezza maggiore dello scanner. Ne conseguono alcuni problemi per “sincronizzare” le
diverse porzioni dell’immagine affinché non ci si accorga che è stata scannerizzata “a pezzi”.
Questo tipo di scanner ha avuto un momento di popolarità quando i prezzi degli scanner a
ripresa in piano erano proibitivi, soprattutto quelli a colori. Questi apparecchi
rappresentavano una alternativa “casalinga”, per chi avesse poche pretese di qualità o pochi
soldi da spendere. Ades so che i prezzi si sono abbassati, il loro mercato si è ristretto.
Caratteristiche tecniche degli scanner
Fino a pochi anni fa, gli scanner erano lentissimi, molto costosi, capaci di riprendere
solamente in bianco e nero (al massimo 256 tonalità di grigio). L’uso era complesso e, per
immagini da pubblicare su giornali o riviste, era sempre meglio ricorrere ai laboratori di
fotocromia. In pratica si potevano utilizzare solamente per riprendere testo o immagini
grafiche semplici e monocromatiche.
Gli scanner a colori erano ancora più costosi e lenti. Davano buoni risultati solamente con
immagini in bianco e nero e pessimi con quelle a colori. Un uso professionale era
impensabile.
In pochi anni gli scanner sono diventati un’apparecchiatura dalle prestazioni prima
inimmaginabili. A prezzi del tutto abbordabili.
Le caratteristiche tecniche principali sono:
• risoluzione ottica: è la risoluzione fisica dello scanner. In genere è di 300 punti per pollice
(dpi) per uno scanner a ripresa in piano e 1200 dpi per uno scanner per pellicole;
• risoluzione in output: l’immagine ripresa otticamente viene elaborata (interpolazione) dal
software di ripresa e la risoluzione viene incrementata fino a 1200, 2400, 4800 dpi ed oltre;
• colore: capacità di riconoscere le diverse sfumature di colore, o meglio, i diversi colori. Un
buon scanner dovrebbe riconoscere 16,7 milioni di colori (sensibilità maggiore di quella
dell’occhio umano) con 24 bit per pixel. Gli scanner professionali per fotolito arrivano a
riconoscere oltre un miliardo di colori a 36 bit per pixel. Con immagini in bianco e nero sono
sufficienti 256 livelli di grigio con 8 bit per pixel;
• velocità: è espressa in millisecondi (msec) per linea;
• elaborazione dell’immagine: deve essere possibile modificare il valore gamma (è la
misura del contrasto che determina i mezzitoni di un’immagine), la correzione del colore a
seconda del tipo di monitor su cui si visualizza l’immagine o della stampante di destinazione,
la nitidezza, il contrasto e la luminosità;
• interfaccia: dovrebbe essere presente sia l’interfaccia RS-232 che quella SCSI;
• formato: è il formato standard dei fogli o delle pellicole che è possibile acquisire. Per i
fogli, la maggioranza degli scanner è di formato A4 (21x29,7 cm), mentre alcuni scanner
professionali sono più grandi ed arrivano al formato A3 (29,7x42). Per le pellicole il formato
più comune è il 35 mm (24x36 mm) in striscia mentre i formati professionali devono
prevedere un apposito telaietto;
• area di lettura: rappresenta le dimensioni massime dell’area che è possibile acquisire, che
spesso non coincide con il formato;
• driver: deve essere presente un dischetto con i driver per tutti i sistemi operativi (DOS,
Windows, Windows ‘95/97/98, Windows NT, Maintosh). Gli scanner migliori hanno un driver
di tipo TWAIN, il che consente di effettuare l’acquisizione dell’immagine direttamente dal
programma di grafica, di OCR, di DTP, di trasmissione fax, di elaborazione fotografica o di
archiviazione dei documenti, senza la necessità di usare il software specializzato;
• software: deve essere fornito almeno un programma specializzato di acquisizione, oltre ad
eventuali programmi (in versione di prova) per l’elaborazione fotografica o l’OCR;
• affidabilità: è la durata teorica dello scanner, almeno 100 mila scannerizzazioni negli
scanner a ripresa in piano e almeno qualche diecina di migliaia in quelli per pellicola.
85
Consigli per l’uso degli scanner
Il processo di acquisizione avviene in due tempi.
Prima si effettua un’anteprima dell’immagine, a bassa risoluzione e quindi veloce. Il software
specializzato o il driver TWAIN mostrano una riduzione dell’immagine, sulla quale si può
intervenire per effettuare tagli dell’immagine (cioè riprese parziali, se parti dell’immagine non
interessano) rettangolari o sagomati. Inoltre si può modificare il gamma, correggere il colore,
modificare contrasto e luminosità. Dopo aver scelto la risoluzione desiderata e la quantità di
colori (non sempre è necessario utilizzare i valori massimi) e la proporzione dell’acquisizione
(riducendo o ingrandendo l’immagine), si da il via all’acquisizione vera e propria.
In questo secondo passaggio, più lento, il gruppo ottico effettua la scannerizzazione
dell’immagine con i parametri scelti. L’immagine digitalizzata è quindi registrata sul disco
rigido oppure inserita nel programma TWAIN.
Riguardo alla risoluzione, è meglio che sia la più alta possibile. Sempre parlando di
risoluzione massima, perché quella reale da utilizzare durante la ripresa deve essere decisa
in dipendenza dell’immagine da digitalizzare o del suo uso. Acquisendo immagini da inserire
in pagine Internet, ad esempio, la risoluzione deve essere di 72 dpi.
Nel caso di una fotografia, nella quale il soggetto è rappresentato da un notevole numero di
colori, la risoluzione è meno importante del numero di colori o di grigi a disposizione. Anche
se lo scanner ha una risoluzione massima di 1200 punti per pollice, la fotografia può essere
ripresa con una risoluzione di 300 punti per pollice purché venga utilizzata l’intera gamma
dei colori o dei grigi a disposizione.
Nell’immagine fotografica è difficilmente distinguibile una digitalizzazione a 300 punti da una
a 600 punti. L’immagine è formata da sfumature di colore, non da punti
Al contrario, in un disegno al tratto nel quale siano usate poche sfumature di colore e
prevalgano i segni precisi dei contorni e delle linee, il numero di colori può essere
abbassato, mentre deve essere utilizzata la risoluzione massima per ottenere la massima
precisione nelle linee. Questa tendenza si esaspera nella ripresa di un disegno tecnico in
solo bianco e nero, nel quale il colore può essere ridotto ad uno solo.
La risoluzione da usare nella ripresa deve anche essere collegata al tipo di stampa che se
ne vuole trarre alla fine della elaborazione. Se l’immagine dovrà essere semplicemente
visualizzata sullo schermo del monitor, la risoluzione deve essere di 72 dpi, cioé quella dei
monitor. Se invece la figura deve essere stampata, è meglio che la risoluzione sia uguale a
quella della stampante.
E’ inutile digitalizzare a 600 punti per pollice una fotografia che sarà stampata con una
risoluzione di 300 punti per pollice. Per riprendere una foto a 600 punti invece che a 300, lo
scanner impiega il doppio del tempo e richiede una quantità enormemente maggiore di
spazio sul disco.
I programmi di ripresa ed i driver consentono di effettuare la ripresa dell’immagine
effettuando contemporaneamente una riduzione od un ingrandimento della stessa. Le
dimensioni dell’immagine si possono modificare in qualunque momento con i programmi di
ritocco fotografico, ma registrare sul disco una foto già ridotta sin dall’inizio è un notevole
risparmio di spazio. Inoltre, riducendo o, ancora peggio, ingrandendo dopo la ripresa, si
rischia che l’immagine venga distorta o sfocata.
All’atto dell’acquisizione, il programma di ripresa da la possibilità di registrare l’immagine
secondo diversi formati grafici. A questo punto è necessario conoscere quali di questi
formati sono compatibili con il programma di grafica, DTP o di ritocco che intendiamo
utilizzare.
I formati più utilizzati sono: TIFF per le immagini fotografiche (a meno che non debbano
essere scontornate) ed EPS per le immagini grafiche, illustrazioni o fotografie da
scontornare. Questi formati sono riconosciuti da tutti i software grafici, DTP o di ritocco. Le
immagini da inserire su pagine Internet vanno invece registrate nei formati GIF o JPEG.
86
La fotocamere digitali
Per chi lavora con le immagini, le macchine fotografiche digitali sono l’ideale complemento,
o forse alternativa, agli scanner. Del tutto esternamente identiche (anche nelle dimensioni)
alle normali macchine fotografiche di tipo “compatto”, all’interno non hanno un rullino di
pellicola, ma una scheda di memoria RAM, una flash RAM, nella quale vengono registrate le
immagini.
Le fotocamere digitali sono, in genere, completamente automatiche, cioè in grado di
determinare il tempo di esposizione e la messa a fuoco senza nessun intervento o taratura.
L’inquadratura avviene con un mirino di tipo ottico, come quello delle macchine fotografiche
compatte, non reflex.
La ripresa è effettuata da un obiettivo ottico/digitale: la luce che entra attraverso la lente
viene convertita in pixel da un dispositivo di tipo CCD (Charge Coupled Device). L’obiettivo è
di solito ad ottica fissa, cioè non è possibile sostituirlo con un teleobiettivo o con un
grandangolo, e solo raramente ha una limitata capacità di zoom.
Dal mirino ottico non è possibile rivedere le fotografie scattate. Per questo scopo alcuni
modelli hanno come accessorio un piccolo monitor LCD, un visore da 2 pollici o meno,
agganciabile alla macchina. Con questo è possibile vedere le fotografie scattate
(singolarmente o in miniatura), e cancellare quelle che eventualmente non vanno bene così
da poter liberare spazio sulla flash RAM per altre immagini.
Con il visore LCD montato, è anche possibile effettuare l’inquadratura ottenendo l’immagine
digitale direttamente dal sensore CCD, evitando così errori di parallasse e consentendo
anche riprese macro, trasformando la macchina in una reflex.
La flash RAM contenuta nella fotocamera ha spazio per un numero limitato di immagini. A
seconda della dotazione di serie (vi sono macchine con flash RAM di 2 o di 4 Mb), si
possono acquisire da 11 a 64 fotografie ad alta risoluzione (640 x 480 pixel) e da 23 a 192 a
media risoluzione (320 x 240 pixel), con 16,7 milioni di colori. Una volta esaurito lo spazio
sulla scheda, è necessario cancellare le immagini per poterne scattare altre.
La fotocamera deve essere collegata ad un personal computer tramite un cavo seriale RS232 (oppure RS-422 per Macintosh) per trasferire le immagini sul disco rigido, tramite un
apposito programma o tramite un driver TWAIN ed un programma di elaborazione
fotografica. La flash RAM, cancellata, è pronta per acquisire altre immagini.
Appositi software in dotazione alla fotocamera consentono di gestire un vero archivio
fotografico per catalogare le immagini cronologicamente o per soggetto. Le immagini
possono essere inserite in programmi di DTP o essere modificate come le immagini
acquisite dallo scanner, con tagli, modifiche di contrasto e luminosità, messa a fuoco, trucchi
e montaggi fotografici.
Nella gran parte delle fotocamere digitali, la memoria di serie della fotocamera può essere
espansa con moduli da 2, da 4, da 6 Mb ed oltre per consentire di acquisire una maggiore
quantità di immagini. I moduli di espansione sono “dedicati” e non sono intercambiabili fa i
diversi modelli di fotocamera.
Il visore LCD opzionale consente, oltre a rivedere ed eventualmente cancellare le fotografie
“sul campo”, anche di effettuare riprese macro fino a 20 centimetri di distanza.
Non è possibile scattare foto in rapida successione, in quanto la fotocamera impiega in
media 6 secondi per elaborare una foto in alta risoluzione e 2 secondi per quelle in media
risoluzione.
Per avere dei riferimenti paragonabili alla fotografia tradizionale, l’obbiettivo è equivalente ad
un 40/43 mm ottico con un diaframma da F8 a F2,8, con esposizione da 1/30 a 1/10.000 di
secondo, sensibilità da 100 a 130 ASA, e con un fuoco da 60 cm all’infinito (20 cm con il
visore LCD). Alcune macchine hanno uno zoom 3x.
87
I dorsi digitali
Diverso discorso è quello dei dorsi digitali di cui possono essere dotate alcune macchine
fotografiche professionali a dorso intercambiabile. Queste sono fotocamere molto costose,
ed altrettanto costosi sono i dorsi digitali che si installano al posto del tradizionale dorso
contenente la pellicola e l’otturatore.
Il dorso contiene esclusivamente il sensore digitale di ripresa e la memoria flash RAM. Il
mirino è nel corpo macchina, mentre gli obiettivi sono i tradizionali obiettivi ottici
intercambiabili. In questo tipo di macchina “assemblata” ottico/digitale, il fotografo può
scegliere sia l’obiettivo, che i parametri di esposizione, che effettuare la messa a fuoco.
88
La rete locale
Il computer è uno strumento di produttività individuale, ma ben difficilmente l’informazione ha
un uso esclusivamente personale. Il dirigente dell’ufficio marketing e l’impiegata
dell’amministrazione svolgono delle funzioni separate, tuttavia il primo ha bisogno dei dati
che la seconda introduce nel computer. Sono dati introdotti per fini fiscali ed amministrativi,
ma il dirigente dell’ufficio marketing li adopera come specchio dell’andamento della società e
spia per le strategie future.
Le cifre vengono studiate, e quindi elaborate per dimostrare la validità od il fallimento di
strategie di marketing per il futuro. I risultati devono essere esposti alla dirigenza
dell’azienda, preferibilmente in una veste convincente, seria e gradevole. La riservatezza
dell’argomento impone di non portare il testo della relazione in una copisteria: è l’ufficio
stampa della stessa azienda che si occupa di mettere insieme i risultati dell’elaborazione, la
relazione dell’ufficio marketing ed aggiungere qualche grafico esemplificativo che possa
aiutare l’esposizione.
All’interno dello stesso ufficio marketing, i dati che pervengono dall’amministrazione devono
essere prima esaminati da qualcuno che decida quali utilizzare e come elaborarli. Ci sarà
una persona che li sistema in un formato elaborabile, un’altra che effettua e controlla
l’elaborazione, qualcuno che, da solo od in gruppo, stila la relazione che espone le proposte
strategiche per il futuro, una persona che trasforma le proposte in cifre mentre un’altra
trasforma le cifre in grafici.
Ognuna di queste persone lavora con il proprio computer, molto spesso con dati che, nello
stesso momento, vengono utilizzati anche da un collega. Un terzo sta aspettando il risultato
per poter procedere a sua volta. Questo lavoro di gruppo non potrebbe realizzarsi, i dati ed i
risultati delle elaborazioni non potrebbero essere condisivi in modo istantaneo se i computer
non fossero collegati in rete.
Il collegamento in rete permette:
- la condivisione delle informazioni;
- la condivisione di dispositivi hardware come dischi rigidi, ottici, stampanti, modem fax.
Per “collegamento in rete” si intende un gruppo di computer in grado di accedere
contemporaneamente allo stesso archivio di dati e con la possibilità di trasmettersi l’uno con
l’altro qualsiasi tipo di documento. Non appena il lavoro di un ufficio viene automatizzato
grazie all’uso di computer, è necessario prevedere subito la messa in opera di un
collegamento in rete.
La connessione è essenziale per il lavoro di un ufficio. Non solo permette lo scambio di
informazioni fra i diversi reparti od impiegati, ma anche consente di lavorare sempre su dati
corretti ed aggiornati. Con opportuni programmi che regolino lo scambio di dati, lo stesso
archivio di informazioni può essere aggiornato dall’amministrazione mentre l’ufficio
marketing lo sta già elaborando.
L’archivio, ovviamente, deve risiedere in un disco rigido su uno dei computer collegati alla
rete. La collocazione ideale delle informazioni è quella più vicina a chi le deve utilizzare o
aggiornare il maggior numero delle volte. Un archivio come quello del nostro esempio
dovrebbe risiedere nel disco rigido di un computer dell’amministrazione.
Oltre che permetterci di condividere le informazioni, il collegamento in rete consente anche
di utilizzare in molti una sola periferiche. Invece di acquistare una stampante ad impatto, dai
risultati mediocri per ciascun computer, è possibile acquistare una stampante laser, dalla
qualità di stampa ottima, e collegarla in rete in modo che tutti possano utilizzarla.
Lo stesso può essere fatto con un juke-box di dischi ottici, con una stampante a colori o con
un modem fax. Pur acquistando un unico apparecchio, ogni computer lo può usare senza
nessuna necessità di spostamenti, allacciamenti volanti, turni.
La connessione viene realizzata attraverso la presenza di apposite schede inserite nei
computer e l’allacciamento di tutti i computer con speciali cavi. In questo modo ciascun
computer diventa una postazione di lavoro della rete, pur conservando tutte le caratteristiche
di indipendenza tipiche del personal.
89
Software di rete
La struttura di una rete può diventare rapidamente molto complessa ed il traffico di dati
arrivare a volumi altissimi. Perché tutto si svolga nel miglior modo è necessaria la presenza
di un apposito programma che gestisca tutta la vita della rete. Devono essere ben
determinate le identità degli utenti della rete, il numero e le caratteristiche delle postazioni di
lavoro, il numero e le caratteristiche delle periferiche collegate, l’esistenza e la consistenza
degli archivi condivisi.
Inoltre il programma che gestisce la rete deve regolare tutto il traffico di dati, facendo si che i
lavori inviati in stampa arrivino alla giusta stampante e che i dati in lettura ed in scrittura
inviati fra l’una e l’altra delle postazioni non si confondano. Infine deve tener conto di una
gerarchia nelle possibilità di accesso alle informazioni. Non tutto può essere letto e
modificato da tutti. I dati relativi alla fatturazione devono poter essere accessibili in lettura
dall’ufficio marketing, mentre possono essere modificati solo dall’ufficio amministrativo. Altri
dati riservati, come le retribuzioni o la corrispondenza contenente progetti ed offerte, devono
poter essere accessibili solamente alla dirigenza dell’azienda.
Il programma di gestione della rete risiede in un computer apposito, adibito esclusivamente
a questo scopo e per questo chiamato server. Il server della rete funziona come un
maggiordomo: conosce tutti gli utenti e sa quando iniziano a lavorare e quando finiscono,
conosce tutte le apparecchiature e sa quando sono in funzione, accoglie e guida a
destinazione tutti i dati che devono attraversare la rete da un computer all’altro o fra un
computer ed una periferica.
Caratteristiche tecniche
La creazione di una rete avviene con l’inserimento di una scheda all’interno di ciascun
computer, con la sistemazione di un cavo che le unisca e l’installazione di un apposito
programma di gestione della rete. La scelta delle schede, dei cavi e del programma è
conseguente alla scelta dell’architettura scelta per la rete.
L’architettura delle reti di computer è molto complessa. Le reti si dividono per:
- localizzazione delle postazioni;
- topologia;
- metodologia;
- tecnologia;
- protocollo;
- sistema operativo di rete.
Localizzazione delle postazioni
Esistono due tipi di rete. Nella prima le postazioni di lavoro si trovano tutte nelle vicinanze
del server, nello stesso palazzo o comunque entro la distanza massima consentita per la
connessione diretta tramite cavo, distanza che può variare a seconda del tipo di tecnologia
utilizzata. Questo tipo di rete viene chiamata LAN, Local Area Network.
Nella seconda le postazioni possono risiedere a qualsiasi distanza, in zone, città, nazioni o
continenti diversi. La connessione non può essere messa in opera direttamente con cavi, ma
viene realizzata tramite collegamenti telematici attraverso linee telefoniche ordinarie, linee
dedicate o servizi telematici pubblici o privati. Questo tipo di rete viene chiamata WAN, Wide
Area Network.
90
Topologia
Le postazioni di lavoro appartenenti alla stessa rete possono essere collegate in diversi
modi:
- ad anello, quando il cavo parte dal server, si innesta in ciascuna postazione e dalla stessa
riparte per la successiva o per una periferica, e così via fino a quando non ritorna allo stesso
server chiudendo il cerchio;
- a stella, quando dal server partono tanti cavi quante sono le postazioni o le periferiche, con
tanti collegamenti singoli;
- a bus, quando dal server parte un solo cavo, che si innesta in ciascuna postazione e dalla
stessa riparte per la successiva o per una periferica, come nella topologia ad anello, ma non
torna al server, bensì termina all’ultima postazione.
Metodologia
Per metodologia si intende il metodo con in quale ciascuna postazione di lavoro invia e
riceve i dati. Le metodologie usate sono due:
- CSMA/CD, Carrier Sense Multiple Access / Collision Detection, che sta per “Accesso
multiplo con rilevamento della portante e riconoscimento delle collisioni);
- token passing, cioè “passaggio di contrassegno”.
La metodologia CSMA/CD
La portante (carrier) è il segnale elettrico che passa sul cavo trasportando i dati. Ciascuna
postazione, prima di trasmettere i suoi dati sul cavo, rileva se sul cavo è già presente una
portante o meno. Se non la rileva, trasmette i dati; se la rileva si ferma per riprovare dopo
una frazione di secondo. Le portanti si alternano alcuni milioni di volte ogni secondo.
Potrebbe capitare che due postazioni stiano tentando di trasmettere dati allo stesso tempo,
e che non rilevando alcuna portante sul cavo iniziano contemporaneamente la trasmissione.
In questo caso non possono individuare l’uno la portante dell’altro, ed i dati inviati si
disturbano a vicenda.
Il riconoscimento delle collisioni serve, appunto, a riconoscere queste situazioni. In questo
caso la postazione o la periferica destinatari della trasmissione non ricevono il dovuto flusso
di dati e quindi non possono inviare, a loro volta, il segnale di “ricevuto”. La postazione
originale si accorge della mancata risposta ed invia nuovamente i dati.
La metodologia token passing
L’accesso alla trasmissione dei dati viene concessa ad ogni postazione di lavoro secondo
un turno prestabilito. Il token è un segnale di contrassegno che viene inviato dal server alla
prima postazione della rete. Se questa postazione ha necessità di trasmettere dati, lo può
fare ed ha la temporanea proprietà esclusiva della rete. Al termine della trasmissione, o se
la postazione non ha nulla da trasmettere, passa il contrassegno alla postazione
immediatamente successiva nel turno.
Il token viene passato da postazione a postazione, fino all’esaurimento del turno e ad un
nuovo inizio. Con questo sistema sono evitate le collisioni di dati, poiché ogni postazione è
l’unica a trasmettere. In caso di una trasmissione di una serie di dati particolarmente lunga,
od in presenza di una sosta dovuta alla lettura dei dati dal disco rigido, la rete rimane per
lungo tempo occupata e tutte le altre postazioni sono impossibilitate ad utilizzarla.
La metodologia CSMA/CD consente una migliore ottimizzazione della rete, in quanto
ciascuna postazione può utilizzare i tempi morti delle altre.
91
Tecnologia
La tecnologia di rete si riferisce alle regole di comunicazione fra server, postazioni di lavoro
e periferiche. Ciascuna tecnologia di rete utilizza esclusivamente una metodologia ed una
topologia ben definite.
Alcune fra le più diffuse sono:
- Ethernet (metodologia a CSMA/CD e topologia a bus);
- Token ring (metodologia a Token passing e topologia ad anello);
- Appletalk (metodologia a CSMA/CD e topologia a bus).
Ciascuna tecnologia ha diverse caratteristiche, con limiti differenti sulla distanza massima
fra il server e gli estremi della rete e sul numero di postazioni collegabili.
Protocollo
Come nella trasmissione di dati via modem, anche nelle trasmissione di dati attraverso la
rete ha bisogno di definire il protocollo, cioè il modo in cui i byte vengono codificati e
trasmessi lungo i cavi.
Mentre c’è una corrispondenza univoca fra topologia e tecnologia di rete, ciascuno
protocollo può essere adottato dalle diverse tecnologie sulle rispettive topologie. Reti con
diverse tecnologie possono avere lo stesso protocollo, mentre reti con la stessa tecnologia
potrebbero usare diversi protocolli.
I protocolli principali sono stati stabiliti dalle stesse case produttrici, tranne uno che è stato
elaborato dal Ministero della Difesa degli Stati Uniti che, essendo il maggior acquirente al
mondo di computer, in pratica detta legge sugli standard:
- TCP/IP (richiesto dal Ministero della Difesa degli Stati Uniti, viene adottato da tutte le
tecnologie di rete);
- IPX/SPX (sviluppato dalla Novell, una casa produttrice del più diffuso sistema operativo di
rete operante sui personal computer);
- NetBIOS e SDLC (sviluppati dalla IBM ed utilizzati per i propri elaboratori e personal).
Sistema operativo di rete
Il programma che gestisce la rete ed amministra tutte le postazioni di lavoro e le periferiche
collegate, è per la rete l’equivalente del sistema operativo per il singolo computer. Su di lui
risiede la responsabilità del funzionamento dell’intera rete, della trasmissione dei dati da una
postazione ad un’altra, da una postazione ad una periferica, da un disco ad una postazione
e viceversa.
Il programma di rete deve risiedere in un computer dedicato a questa sola funzione,
chiamato server, e deve sempre essere in esecuzione.
Spesso il sistema operativo di rete è in grado di gestire reti con metodologie, topologie,
tecnologie e protocolli diversi.
Parallelamente, deve essere presente un programma di amministrazione della rete, a volte
in esecuzione sullo stesso server, altre volte da una postazione di rete. Il programma di
amministrazione deve:
- autorizzare l’accesso di nuovi utenti;
- cancellare utenti da escludere;
- stabilire criteri di riservatezza e gerarchie di accesso ai diversi archivi connessi alla rete;
- identificare ciascuna postazione e ciascuna periferica con un identificativo univoco;
- controllare l’efficienza della rete, la perfetta trasmissione dei dati, gli eventuali
malfunzionamenti;
- stabilire le modalità di connessione fra la rete gestita ed altre reti eventualmente collegate.
92
L’accesso al programma di amministrazione della rete viene concesso esclusivamente,
tramite una parola d’ordine, al network manager, figura essenziale in qualsiasi tipo di rete,
piccola o grande che sia.
Il network manager, oltre ad assolvere ai compiti sopra elencati, deve stabilire la
collocazione e la dimensione fisica della rete e controllarne frequentemente lo stato.
Componenti della rete
Altri componenti fisici o logici della rete, oltre al sistema operativo, sono:
- server;
- nodo;
- pacchetto;
- cavi;
- repeater;
- bridge;
- router;
- gateway.
Server
E’ il computer sul quale è in esecuzione il sistema operativo di rete. Non è importante la sua
collocazione fisica nell’ambito della rete, se non nella topologia a stella. In quelle a bus o ad
anello può essere una qualsiasi delle postazioni.
La maggior parte dei programmi di rete richiede che il server sia adibito a questo scopo
esclusivo, e quindi quella postazione non può essere utilizzata per l’ordinario lavoro.
Nodo
Il termine si riferisce a qualunque apparecchiatura sia connessa alla rete, sia una postazione
che una periferica, sia un server che un bridge o router. I nodi sono identificati dal sistema
operativo di rete con un numero assegnatogli all’atto dell’installazione della singola
apparecchiatura. Il numero identificativo del nodo costituisce l’indirizzo della
apparecchiatura.§
Pacchetto
Il pacchetto è il più piccolo blocco di dati che il protocollo utilizzato dalle rete è capace di
trattare. I documenti inviati da un nodo ad un altro vengono suddivisi in pacchetti. In ciascun
pacchetto, altre ai dati, sono presenti i numeri dei nodi di destinazione e di partenza e il
numero progressivo del pacchetto all’interno dell’intera trasmissione. Ciò consente, nel
protocollo CSMA/CD, di identificare i pacchetti persi per collisione e di effettuarne la
ritrasmissione.
Cavi
La scelta dei cavi con i quali effettuare la trasmissione deve essere effettuata in
considerazione non solo del costo dei cavi e delle loro installazione, ma soprattutto delle
dimensioni che la rete deve avere, delle tecnologie utilizzate e del traffico prevedibile di dati.
I tre tipi di cavi più utili sono:
- doppino telefonico: filo a due poli, spesso non schermato, utilizzato per le normali linee
telefoniche (il costo è molto basso, l’efficienza buona e la capacità di traffico mediocre);
- cavo coassiale: filo a due poli, uno interno ed uno esterno che funziona anche da isolante
per interferenze elettriche esterne (il costo è medio, l’efficienza buona e così anche la
capacità di traffico);
- cavo ottico: i dati viaggiano grazie ad un segnale luminoso generato da un laser attraverso
un cavo in fibra di vetro (il costo è molto alto, l’efficienza ottima e la capacità di traffico
altissima).
93
Un tipo di collegamento attualmente in sperimentazione prevede il collegamento senza
l’utilizzo di cavi. Due sono i metodi:
- con infrarossi;
- con onde radio.
Nel primo caso ciascun nodo è dotato di un sensore ricevete e di un emettitore di infrarossi.
Ciascun nodo, però, devo trovarsi a portata visiva di un altro e il contatto non deve
interrompersi, quindi non deve essere disturbata da oggetti, da apertura o chiusura di porte
o passaggio di persone.
Nel secondo caso i nodi sono dotati di un ricetrasmettitore radio. I nodi possono trovarsi
anche in posti diversi di un palazzo, od in palazzi adiacenti. Questa tipo di collegamento
offre innumerevoli vantaggi.
Una applicazione è legata all’uso di computer notebook a penna. Grazie al collegamento via
radio, ciascun notebook può essere utilizzato all’interno di un edificio con una mobilità
assoluta. Ad esempio, ne possono essere dotati i medici o le infermiere di un ospedale, che
così possono accedere ai dati generali di tutti i pazienti ed integrarli con prescrizioni, note,
osservazioni e diagnosi direttamente dalla stanza del paziente.
Utilizzando frequenze radio diverse, vicine a quelle delle normali radio ricetrasmittenti, può
collegarsi alla rete pur trovandosi in una qualunque parte della città. Soluzione studiata per i
rappresentanti commerciali o per i dirigenti impegnati in riunioni fuori dalla sede dell’azienda.
Repeater
Ciascuna tecnologia di rete ha una distanza massima oltre la quale i dati non possono
essere trasmessi. Il segnale arriva, a quella distanza, ai limiti della comprensibilità,
deteriorato e affievolito dal passaggio nel cavo. Un repeater amplifica e ritrasmette il
segnale, aumentando così la distanza massima raggiungibile dalla rete. Attraverso il
repeater passa tutto il traffico di dati, non solo quello destinato alla parte opposta della rete,
in modo da trasmettere la portante del segnale nelle metodologie CSMA/CD per occupare la
rete, o il contrassegno di turno nelle metodologie token passing.
Bridge
Un bridge consente il collegamento fra due reti, in modo che le due reti ne formino una sola
e che ciascun nodo della prima rete possa ricevere o trasmettere dati scambiandoli con un
nodo della seconda rete.
Il bridge è collegato ad entrambe le reti ed esamina tutti i pacchetti in circolazione nelle due
reti. Quando riconosce, in un pacchetto di una rete, l’indirizzo di un nodo appartenente
all’altra rete, lo smista in modo totalmente invisibile per gli utenti. Il normale traffico di dati
all’interno di ciascuna rete continua ad avvenire in modo del tutto indipendente e separato.
Router
Un router è un dispositivo che unisce due reti. Se una od entrambi queste reti sono
connesse ad altre tramite altri router, anch’esse sono connesse fra loro. I dati possono
essere scambiati anche fra nodi di reti non adiacenti, attraverso il passaggio di router
diversi.
Il router riconosce l’indirizzamento del pacchetto, e lo inoltra a destinazione attraverso
diverse reti e diversi router seguendo la strada più conveniente. Nel caso che questa strada
sia interrotta per traffico eccessivo di una delle reti intermedie o del suo blocco per
malfunzionamento, il router cerca di inoltrare i dati seguendo percorsi alternativi. Il normale
traffico di dati all’interno di ciascuna rete continua ad avvenire in modo del tutto indipendente
e separato.
Gateway
Un gateway permette la connessione fra due reti che utilizzano diversi protocolli di
trasmissione, traducendo i pacchetti di dati da un protocollo all’altro. Il gateway è
tipicamente utilizzato per connettere una rete costituita da personal computer ed una
costituita da un mainframe ed i suoi terminali.
Le postazioni di lavoro della rete di personal computer possono diventare, tramite il
gateway, terminali del mainframe collegato. Hanno bisogno, oltre del normale sistema
operativo di rete, anche di un apposito software che, in esecuzione sulla singola postazione,
simuli le caratteristiche hardware dei terminali utilizzati nella rete del mainframe e che
effettui tutti gli adattamenti necessari per i diverso tipi di linguaggi e protocolli dei mainframe.
94
In pratica non è la rete dei personal ad essere connessa con il mainframe, ma è la singola
postazione che, tramite la rete ed in gateway, diventa un terminale del mainframe aprendo
con quest’ultimo una sessione di lavoro. Mentre per connettere due reti è sufficiente un solo
bridge od un solo router, per connettere una rete di personal ad un mainframe possono
essere necessari più gateway, in quanto ciascuno può consentire un numero limitato di
sessioni di lavoro.
Considerazioni finali
L’avvento delle reti di personal computer è stato il passo decisivo perché il personal potesse
avere un ruolo nell’informatica aziendale. La possibilità di interconnettersi fra di loro, tramite
bridge e router, e con mainframe, tramite gateway, formando reti composte da altre reti, è
stato il passo successivo verso la completa integrazione fra sistemi diversissimi.
Con questi strumenti è possibile integrare il lavoro compiuto in ambienti diversi, con
programmi differenti e su macchine incompatibili. L’informatica, che era composta da tante
aree isolate, si è tramutata in un unico ambiente grazie alla presenza attiva del personal
computer. Esistono ancora molte difficoltà, e la situazione può essere simbolicamente
rappresentata dal fatto che il capitolo della connessione in rete è quello che adotta il maggior
numero di sigle ed acronimi di tutta l’informatica.
In termini produttivi, una rete è già in attivo anche con pochissimi computer collegati, non
fosse altro che per la possibilità di acquistare un numero limitato di periferiche che, inserite
come nodi della rete, possono essere utilizzate da tutte le postazioni di lavoro.
95
Il Cabinet
Case Tower
Case Mid Tower
Case Mini Tower
Il cabinet è il contenitore che racchiude l'elettronica del computer.
Fondamentalmente le categorie sono due, con qualche variante:
DESKTOP
TOWER
Slim (compatto)
Desktop
Minitower
Tower
Connettori
da 2 a 4
da 6 a 8
da 5 a 8
8
Vani esterni
2o3
3o4
3o4
da 4 a 6
Vani interni
1o2
2o3
2o3
da 4 a 6
Pro
Estremamente compatto.
Può essere usato come supporto per sollevare il monitor
Per l'utente medio offre una buona espandibilità
Si può posizionare sotto la scrivania Espandibilità ottima
96
Contro
Limitazione sulla espandibilità
L'espandibilità non è sempre facile
Interno spesso caoticamente super affollato
Per un utilizzo medio può essere troppo ingombrante
Le nuove schede madre di tipo ATX richiedono un cabinet predisposto di dimensioni differenti da
quelle standard..
97
La motherboard (Scheda madre)
Potete chiamarla come volete: scheda madre, mainboard,
motherboard, ma il suo ruolo resta comunque inalterato: è la
centrale di comando, il cuore del sistema. La scheda madre
costituisce sicuramente la parte più importante del computer. In
essa trovano alloggiamento numerosi componenti:
Una motherboard baby AT con i principali
componenti
•
il processore (CPU)
•
la memoria RAM
•
il BIOS
•
controller per unità a dischetti e dischi fissi
•
gli slot (alloggiamenti delle schede di espansione) a
16 e 32 bit.
•
il Chipset
•
le porte di comunicazione
98
99
La CPU pagina 1 di 2
Il processore (chiamato anche CPU, dall'inglese Central Processing Unit)
è il cervello del personal computer, esegue milioni di operazioni al
secondo e il suo compito è occuparsi di tutte le operazioni richieste dalle
applicazioni e dal sistema operativo. E' installato su uno speciale zoccolo
saldato sulla scheda madre detto socket:
100
101
La RAM
In un personal computer la memoria
principale viene chiamata RAM
(Random Access Memory), maggiore
è la sua quantità e migliori saranno le
prestazioni del computer dove essa
opera.
I programmi odierni, sempre più complessi, richiedono sempre più memoria. I chip RAM sono
installati su moduli (piccole schede) chiamati Simm (Single In-line Memory Module) o sui nuovi
Dimm (Dual In-line Memory Module). Questi moduli sono a loro volta inseriti negli appositi slot
presenti sulla scheda madre.
La memoria viene misurata in byte, dove:
•
1 byte = 8 bit (1 bit è l'unità elementare di informazione binaria che può assumere i due
valori 0 o 1 )
•
1 kilobyte (Kb) = 1024 byte
•
1 Megabyte (Mb) = 1024 Kb
•
1 Gigabyte (Gb) = 1024 Mb
Quanta RAM è necessaria ?
Sitema operativo
RAM consigliata
DOS con Windows 3.xx
16 Mb
Windows 95
32 Mb
Windows 98
64 Mb
Windows NT
64 Mb
102
I moduli memoria in dettaglio
In questa sezione della guida sono stati riprodotti tutti i differenti tipi di moduli memoria attualmente
commercializzati, così da poterli facilmente individuare:
Modulo memoria Simm 30pin
Modulo memoria Simm EDO da 72 pin
Modulo memoria SDRAM PC100 dalla capacità di 32 Mbytes
Modulo memoria SDRAM PC133, da 64 Mbytes di capacità
Modulo memoria SDRAM PC133 ECC Registered, dalla capacità di 256 Mbytes; i chip montato in
orizzontale, nella parte inferiore del PCB, gestiscono le funzioni di correzione d'errore.
Modulo memoria DDR-SDRAM PC2100, da 128 Mbytes di capacità
103
Modulo memoria Rambus, PC800, da 128 Mbytes di capacità
104
I vari Slot memoria presenti sulle schede madri
Una scheda madre è formata da numerosi, differenti componenti; gli Slot memoria sono in genere facilmente
individuabili ma per maggiore praticità sono stati indicati nell'immagine sottostante, riproducente la scheda
madre Socket 370 Abit BX-133 Raid:
I tre Slot memoria per moduli Dimm a 168 pin montati sulla scheda madre Abit BX-133 Raid sono facilmente
indviduabili: in genere i banchi memoria sono disposti in orizzontale, parallelamente al lato più lungo della
scheda madre, così da sfruttare al meglio la superficie della scheda madre ed evitare che i moduli possano
andare in contatto con altri componenti.
Nella sezione precedente sono stati indicati i differenti tipi di moduli memoria disponibili; ovviamente, ad ogni
modulo memoria corrisponde un differente banco memoria montato sulla scheda madre:
Banco memoria Simm a 72 pin, capace di accettaremoduli memoria Simm Fast Page ed EDO da 72 pin.
Tale banch è in genere montato sulle schede madri per cpu Intel Pentium e su alcune delle schede madri
per processori 486.
Banchi memoria per moduli Dimm a 168 pin: sono i banchi memoria più diffusi tra quelli presenti in
comemrcio, capaci di accettare moduli memoria SDRAM PC66, PC 100 e PC133. A seconda del chipset
utilizzato è possibile utilizzare, con banchi memoria, anche moduli memoria ECC, ECC Registered e VC
(Virtual Channel).
105
Banchi memoria per moduli RIMM Rambus: in essi è possibile montare soltanto moduli memoria RIMM
(Rambus); a seconda della frequenza di bus selezionata sarà possibile utilizzare uno dei tre differenti tipi di
memoria Rambus a disposizione, tra PC600, PC700 e PC800.
Particolare della reference board Socket A AMD Corona, basata su chipset AMD-760; in particolare si
notano i 4 Slot memoria per moduli DDR-SDRAM.
106
Il disco fisso
Un po' di teoria
Il disco fisso (in inglese hard disk) è una sorta di contenitore
elettronico dove vanno conservate le informazioni di cui non
si ha un bisogno immediato, ma che comunque devono
essere conservate. Il disco fisso fa parte della categoria
memorie di massa (insieme al floppy disk e unità a nastro). Il
supporto magnetico dei dischi fissi e dei floppy disk è
suddiviso in una serie di cerchi concentrici separati l'uno
dall'altro chiamati tracce.
La superficie del disco, quindi è divisa da questi cerchi/tracce ben distinti, che iniziano dal bordo
esterno fino ad arrivare alla traccia più interna. La quantità delle tracce varia a seconda del tipo di
disco. Proprio come la larghezza del disco è suddivisa in tracce, la circonferenza di ogni traccia è a
sua volta suddivisa in diversi segmenti adiacenti chiamati settori. I settori contenuti nelle tracce e le
tracce contenute sulla superficie del disco vengono identificati con dei numeri che vengono loro
assegnati.
107
IL CD-ROM
Quello che fino a qualche tempo fa veniva considerato un optional
è divenuto un elemento fondamentale del sistema. E' in grado di
memorizzare una quantità impressionante di dati (650 Mb). I lettori
CD-ROM non sono tutti uguali. La continua variazione delle
velocità dalla 2X alla 50X hanno migliorato la transfer rate che nei
primi lettori 1X era di 150 Kbps (KByte per secondo).
Vale la pena precisare infatti, che la denominazione 52X non sta ad indicare una velocità di rotazione
52 volte più veloce rispetto alla 1X, ma questo parametro indica il Data Transfer Rate, ossia la
quantità di dati inviata al pc: ad esempio un 40X invierà, a parità di tempi, un quantitativo di dati
doppio del 20X.
Il DVD
Il DVD acronimo di Digital Versatile Disk rappresenta il naturale
miglioramento della tecnologia CD-ROM. Utilizzando una tecnologia di
memorizzazione su dischi ottici di nuova generazione, sarà utilizzato per
supportare una vasta gamma di prodotti elettronici di consumo e di
periferiche per PC. Il DVD non è semplicemente un ulteriore supporto di
memorizzazione, ma un sistema di memorizzazione digitale in grado
quindi di sostituire le attuali tecnologie di memorizzazione su CD audio,
CD-ROM, videonastri VHS ecc. La tecnologia DVD è stata
appositamente progettata per applicazioni multimediali, audio, video e
dati e sostituirà presto il caro vecchio CD-ROM.
Il DVD è in grado di memorizzare una quantità enorme di dati, garantendo una piena compatibilità in
lettura con i maggiori dispositivi di archiviazione ottica. Il suo supporto può essere cancellato e
riscritto come su un disco fisso grazie a una particolare tecnologia chiamata " a cambiamento di fase"
. Vengono proposti sia in versione SCSI che IDE. Le unità DVD sono compatibili con la tecnologia
ottica preesistente e sono quindi in grado di leggere i comuni CD-ROM.
108
Il modem
Ciò che fino a qualche tempo fa era considerata una necessità per pochi eletti è ora divenuto un
elemento indispensabile: stiamo parlando del modem (modulatore - demodulatore), la porta di
accesso del computer al mondo esterno. Questo preziosissimo elemento che consente i
collegamenti a Internet, servizi online, banche dati e BBS, ha subito negli ultimi anni straordinari
incrementi di prestazioni tanto da arrivare a velocità di 56 kilobit (57.600) per secondo:
Evoluzione del modem
Anno
1995
1996
1997
1998
Velocità Kbps
14,4
28,8
33,6
56
109
Il monitor
La gamma di monitor presenti sul mercato è molto ampia. La maggior
parte dei computer viene offerta con monitor da 14" (14 pollici) e questa
non rappresenta di certo la soluzione ideale. A fronte di un minimo
risparmio viene corrisposta una prestazione spesso scadente.
Un buon display da 15 pollici ha un prezzo di circa 150 - 200 mila lire superiore ad un 14" ma i suoi
vantaggi compensano pienamente la differenza di prezzo. La maggiore area di visualizzazione
consente di visualizzare comodamente una risoluzione di 800 x 600 punti. Ricordarsi che la qualità
alla fine paga sempre, soprattutto quando a farne le spese è la vista. Per chi poi passa molte ore
davanti ad un computer sarebbe consigliabile un monitor a 17 pollici. Se poi il vostro lavoro è
collocato nell'ambito della grafica o del CAD (Computer Aided Design), allora la risposta è
categorica: 21 pollici.
Una raccomandazione importante: valutare il monitor vedendolo in funzione. Non acquistare mai a
scatola chiusa.
110
La scheda Video
Per l'utilizzo medio o per il piccolo ufficio occorre orientarsi su
modelli con 4 Mb di RAM video. Per i professionisti della
grafica il consiglio è di indirizzarsi verso modelli con 8 Mb di
Ram video. Nella scelta del minitor e della scheda accertatevi
che qesti elementi possano supportare elevate frequenze di
refresh e risoluzioni elevate.
Quantità minima di Ram video per risoluzione e numero di colori
Risoluzione
16 col.
(4 bit)
256 col.
(8 bit)
65.000 col.
(16 bit)
16,7 milioni col.
(24 bit true color)
640x480
500 Kb
500 Kb
1 Mb
2 Mb
800x600
500 Kb
1 Mb
2 Mb
2 Mb
1024x768
1 Mb
1 Mb
2 Mb
4 Mb
1280x1024
1 Mb
2 Mb
4 Mb
4 Mb
1600x1200
2 Mb
2 Mb
4 Mb
8 Mb
1800x1440
2 Mb
4 Mb
8 Mb
8 Mb
111
La risoluzione consigliata
Poichè alle risoluzioni più alte i caratteri appaiono più piccoli con maggiori aree visualizzate sullo
schermo, è necessario adattare la risoluzione in base alla dimensione del monitor per evitare
immagini troppo piccole e di sicuro fastidio per la vista.
Riportiamo la risoluzione ideale in relazione alla grandezza del monitor.
Risoluzione
15 "
17"
19"
640x480
si
si
si
800x600
si
si
si
1024x768
sconsigliata
si
si
1280x1024
no
sconsigliata
si
1600x1200
no
no
no
112
Scarica