Il sistema di elaborazione - Dipartimento di Matematica e Informatica

annuncio pubblicitario
Il sistema
di elaborazione
Che cosa serve per eseguire delle istruzioni
e per elaborare l’informazione
in modo automatico
Un computer (in italiano anche calcolatore o elaboratore) è una macchina calcolatrice in grado di eseguire automaticamente sequenze di operazioni logico-aritmetiche
sui dati in ingresso (input) e di restituire i risultati di tali operazioni in uscita (output). Come per gran parte della terminologia informatica, l’utilizzo dell’originale
inglese prevale sulla traduzione italiana (calcolatore o elaboratore), sebbene in altre
lingue europee accada diversamente (francese: ordinateur, spagnolo: computadora
o ordenador).
Nel corso della storia, l’implementazione tecnologica di questa macchina si è
modificata profondamente sia nei meccanismi di funzionamento (meccanici, elettromeccanici ed elettronici), che nelle modalità di rappresentazione dell’informazione
(analogica e digitale) che in altre caratteristiche (architettura interna, programmabilità, ecc.). Al giorno d’oggi, ci si riferisce comunemente al computer come ad un
dispositivo elettronico e digitale, programmabile a scopo generico costruito secondo la cosiddetta architettura di von Neumann ed il modello teorico-computazionale
della cosiddetta macchina di Turing. Sebbene i computer programmabili a scopo
generico siano oggi i più diffusi esistono in specifici ambiti di applicazione modelli
di computer dedicati (automazione industriale, domotica, ecc.).
In questa forma e al pari della televisione, esso rappresenta il mezzo tecnologico
simbolo che più ha modificato le abitudini umane dal secondo dopoguerra ad oggi:
la sua invenzione ha contribuito alla nascita e allo sviluppo dell’informatica moderna,
che ha segnato l’avvento della cosiddetta terza rivoluzione industriale e della società
dell’informazione.
In sostanza un computer è in grado di eseguire operazioni logiche come ad
esempio calcoli numerici e storicamente è stato proprio il calcolo la prima forma
di applicazione del computer, ovvero il problema che ha spinto all’invenzione e alla
realizzazione del computer stesso. Dalla nascita della struttura più elementare in
seguito si sono sviluppati e succeduti molti tipi di computer, costruiti per svariati
compiti, professionali e non, che, pur affinando sempre più il calcolo numerico fino
ad arrivare al moderno calcolo scientifico ad elevate prestazioni grazie ai supercalcolatori, vanno ben oltre offrendo applicazioni diffusissime all’utente comune come
la videoscrittura in sostituzione delle vecchie macchine da scrivere e in generale applicazioni di office automation, creazione e gestione di database, la progettazione
assistita al calcolatore, la computer grafica, la simulazione, sistemi elettronici di
controllo, applicazioni di diagnostica medica, i videogiochi ecc.
Le chiavi di successo del computer sono dunque la grande potenza di elaborazione e la notevole capacità di memorizzazione che, in qualità di macchine, estendono le
rispettive capacità umane di calcolo, processamento e memorizzazione consentendo
21
applicazioni
pratiche
successo dei
computer
22
Il sistema di elaborazione
una diminuzione sensibile dei tempi richiesti per la risoluzione di un problema dato
o spesso la sua effettiva risoluzione, altrimenti non possibile. Ad essa si aggiunge la
grande usabilità grazie al suo utilizzo in molti campi dell’elaborazione dati (vedi i
sistemi embedded) e, sul fronte del consumo di massa, allo sviluppo di innumerevoli
applicazioni a favore di una vasta gamma di utenti e, nella maggior parte dei casi,
anche la semplicità di utilizzo da parte dell’utente stesso grazie all’implementazione
di sistemi di interfacciamento utente/macchina molto spesso di tipo user-friendly.
Il primo calcolatore
struttura
logica
John von
Nuemann
Alan Turing
ENIAC
La struttura logica del computer attuale può ricondursi alla presenza di almeno
quattro elementi fondamentali o sottosistemi: un’unità centrale di elaborazione
(o CPU), un memoria, un insieme di dispositivi di input/output e un canale di
comunicazione dei dati (o Bus). Questo schema venne proposto per la prima volta
dal matematico John von Neumann all’interno di uno scritto informale del 1945 noto
come First draft of a report on the EDVAC. L’opera nasce dalla partecipazione di
von Neumann al progetto ENIAC (Electronic Numerical Integrator and Computer) e
raccoglie le idee provenienti da vari membri del team di sviluppo su come migliorare
la funzionalità del computer nascituro.
Va inoltre ricordato che von Neumann era stato profondamente influenzato da
Alan Turing, il quale aveva proposto nel 1937 un modello di calcolo - passato alla
storia come Macchina di Turing - che ben si prestava a descrivere le operazioni
eseguite da un computer, pur non essendo stato concepito per quello scopo (Turing si stava occupando in quella sede del problema della computabilità, non della
realizzazione di un calcolatore). Il funzionamento della Macchina di Turing suggerì
a von Neumann l’idea che la memoria dovesse contenere non solo i risultati delle
operazioni svolte dal computer, ma anche le istruzioni di programmazione.
Premesso il contributo degli altri progettisti dell’ENIAC e quello di Alan Turing,
a von Neumann va il merito di aver approfondito, arricchito e messo a sistema gli
spunti raccolti: motivo per il quale la struttura logica sopra indicata è oggi nota
come architettura di von Neumann.
Durante la Seconda guerra mondiale, nel 1943, il Governo degli Stati Uniti subì
una forte pressione ai fini della realizzazione di una macchina da calcolo. Questa
doveva essere capace di risolvere i problemi di calcolo balistico, l’ENIAC appunto,
per il lancio dei proiettili d’artiglieria. Il progetto, dopo ben 7.237 ore di lavoro,
fu portarono a compimento. Furono necessarie ben 18.000 valvole termoioniche
che portarono l’ambiente ad una temperatura superiore ai 50 gradi centigradi. Era
il 1946. Un anno dopo si assisterà all’invenzione del transistor, il componente
elettronico che soppianterà la valvola termoionica nella realizzazione del computer
elettronico.
L’ENIAC assorbiva tanta energia elettrica che, alla sua prima messa in funzione, causò un black-out nel quartiere ovest di Filadelfia. Durante la presentazione
ufficiale nel 1946 l’ENIAC fu in grado, in meno di un secondo, di moltiplicare il
numero 97.367 per sé stesso 5.000 volte. Alla presentazione del calcolatore seguirono, oltre ai comunicati del Dipartimento di guerra, vari articoli in giornali popolari,
Il sistema di elaborazione
23
quali ad esempio Newsweek, a dimostrazione dell’attenzione suscitata dall’ENIAC
nell’opinione pubblica.
Come tutti i primi computer era di grandi dimensioni, occupava una stanza di
m 9 × 30, per una superficie complessiva di 180m2 , e pesava 30 tonnellate. Era
costituito principalmente da 42 pannelli disposti su tre pareti della stanza. Ogni
pannello era alto circa 9 piedi, largo 2 piedi e spesso 1 piede. Sopra i pannelli erano
stati sistemati i condotti di aria per il raffreddamento. C’erano inoltre 5 pannelli
portatili che potevano venir spostati da un posto all’altro.
L’ENIAC impiegava 18.000 valvole termoioniche, collegate da 500.000 contatti
saldati manualmente, 1.500 relè e dissipava in calore una potenza termica di circa
200 kW. Ciò creava seri problemi di affidabilità perché il grande calore generato
faceva bruciare le valvole con la frequenza di una ogni 2 minuti. Lo stress termico era
maggiore soprattutto durante le fasi di accensione e di spegnimento del calcolatore,
per cui venne deciso di lasciarlo sempre in funzione. Questo provvedimento, insieme
all’adozione di valvole più affidabili a partire dal 1948, fece ridurre la frequenza di
rotture ad una media di una ogni due giorni, con un periodo massimo di 116 ore
ininterrotte nel 1954. Si calcola che, nel periodo in cui l’ENIAC è stato in funzione,
abbia richiesto la sostituzione di 19000 valvole termoioniche.
L’ENIAC, pur essendo digitale, utilizzava il sistema numerico decimale. La sua
memoria poteva contenere solo 20 numeri di 10 cifre e l’input era consentito da
schede di carta perforate. Era in grado di riconoscere il segno di un numero, confrontare numeri, e di eseguire le operazioni di addizione, sottrazione, moltiplicazione,
divisione e radice quadrata.
La programmazione avveniva tramite cavi elettrici di collegamento sui pannelli, che dovevano essere ogni volta scollegati e ricollegati, ed ogni configurazione
consentiva al computer di risolvere un diverso problema.
I maggiori limiti, oltre al calore prodotto, consistevano nei tempi piuttosto lunghi
richiesti per la programmazione, nell’affidabilità e nella quantità di memoria.
L’ENIAC rimase in funzione fino al 2 ottobre 1955; venne poi trasferito a
Washington, al museo Smithsonian Institution, dove è ancora esposto.
Alan Turing
Alan Mathison Turing (Londra, 23 giugno 1912 - Wilmslow, 7 giugno 1954) è
stato un matematico, logico e crittografo britannico, considerato uno dei padri dell’informatica e uno dei più grandi matematici del XX secolo. Il suo lavoro ebbe vasta
influenza sullo sviluppo dell’informatica, grazie alla sua formalizzazione dei concetti
di algoritmo e calcolo mediante la macchina di Turing, che a sua volta ha svolto
un ruolo significativo nella creazione del moderno computer. Per questi contributi
Turing è solitamente considerato il padre della scienza informatica e dell’intelligenza
artificiale.
Fu anche uno dei più brillanti crittoanalisti che operavano in Inghilterra, durante
la seconda guerra mondiale, per decifrare i messaggi scambiati da diplomatici e
militari delle Potenze dell’Asse. Durante la Seconda Guerra Mondiale Turing lavorò
infatti a Bletchley Park, il principale centro di crittoanalisi del Regno Unito, dove
ideò una serie di tecniche per violare i cifrari tedeschi, incluso il metodo della Bomba,
24
Il sistema di elaborazione
una macchina elettromeccanica in grado di decodificare codici creati mediante la
macchina Enigma.
Omosessuale, morì suicida a soli 41 anni, probabilmente in seguito alle persecuzioni subite da parte delle autorità britanniche a causa della sua omosessualità.
Nel 1952 era stato infatti dichiarato colpevole di grave indecenza per essere stato
sorpreso in rapporti sessuali con un altro uomo e condannato alla castrazione chimica. In suo onore la Association for Computing Machinery (ACM) ha creato nel
1966 il Turing Award, massima riconoscenza nel campo dell’informatica, dei sistemi
intelligenti e dell’intelligenza artificiale.
Tipi di computer e loro evoluzione
sistemi
embedded
accesso
condiviso
mainframe
I computer possono essere idealmente divisi in alcune categorie molto generali,
a seconda delle loro caratteristiche salienti, dell’uso che in generale se ne fa, del
software e dei sistemi operativi che fanno girare e dell’epoca in cui sono comparse.
Le definizioni nel tempo sono molto cambiate e i confini non sono mai così netti.
Una prima classificazione in base all’uso distingue tra computer general purpose ovvero riprogrammabili per svariate applicazioni dall’utente e computer special
purpose ovvero sistemi embedded dedicati ad una sola applicazione specifica come
ad esempio i microcontrollori.
Un’altra classificazione è basata sull’accesso condiviso o meno alle risorse hardware: un computer general purpose può essere monoutente oppure multiutente sfruttando il cosiddetto timesharing delle risorse e con diversi sistemi operativi. Un computer monoutente può essere monotasking oppure multitasking ovvero
può eseguire più processi in contemporanea (in pratica tutti i computer moderni).
Ovviamente un computer multiutente è anche multitasking.
Una classificazione basata sulle dimensioni, sull’evoluzione storica e sulla destinazione d’uso è invece quella che segue. In linea di massima le dimensioni dei sistemi
di elaborazione sono progressivamente diminuite nel tempo in virtù del miglioramento delle tecniche di elaborazione digitale ovvero all’alta capacità di integrazione dei
transistor all’interno dei processori ed il parallelo aumento della capacità di processamento. Computer di grandi dimensioni rimangono ora solo nei grandi centri di
calcolo.
Negli anni 40 i computer occupavano stanze intere, l’energia richiesta per il
funzionamento ed il raffreddamento era elevata e, naturalmente, erano costosissimi; per questo motivo si tendeva a sfruttarli il più possibile e, quindi, l’utilizzo
era suddiviso generalmente fra un numero di utenti piuttosto grande. Spesso la
comunicazione con la macchina sia in input che in output avveniva direttamente in
binario tramite l’uso di schede perforate.
Oggigiorno questi sistemi vengono utilizzati nelle grandi aziende, nelle banche, in
società di assicurazioni, nella pubblica amministrazione ed in tutte quelle strutture
che hanno bisogno di una potenza di elaborazione proporzionata al grande numero
di utenti che devono fruirne. Dal punto di vista estetico non sono molto più grandi
dei normali PC ma sono più potenti, però sono molto onerosi sia in termini di
investimento iniziale che di costi di gestione.
Il sistema di elaborazione
25
In un secondo tempo, negli anni sessanta, in particolare da Digital e da HP,
vennero introdotti elaboratori dal costo abbastanza ridotto da poter essere comprati anche da piccole aziende o da singoli dipartimenti di ricerca e di dimensioni
paragonabili ad un armadio. Questo permise un utilizzo più flessibile e quindi le
prime sperimentazioni in campo informatico. Per distinguerli dai mainframe venne
coniato il termine minicomputer.
minicomputer
All’inizio degli anni settanta l’introduzione del primo microprocessore, l’Intel
4004, rese disponibili computer dal prezzo abbastanza ridotto da poter essere acquistati anche da una singola persona. La prima generazione di questi dispositivi
era destinata soprattutto agli appassionati, perché di difficile utilizzo. I personal
computer possono essere considerati microcomputer.
microcomputer
La seconda generazione di microcomputer, che prende il nome popolare di home
computer, fece il suo ingresso nel mercato nella seconda metà degli anni settanta
e divenne comune nel corso degli anni ottanta, per estinguersi entro i primi anni
novanta con l’ascesa dei personal computer.
home
computer
Gli home computer, macchine a costo contenuto e di utilizzo prevalentemente
domestico, contribuirono largamente a diffondere a livello popolare l’uso del computer e all’alfabetizzazione informatica di vasti strati di popolazione (specie giovanile)
nei paesi sviluppati.
Basati su processori a 8 bit e costruttivamente molto semplici, erano dotati di
interfacce esclusivamente testuali e come memorie di massa sfruttavano, almeno
inizialmente, supporti analogici come le cassette audio (che fra l’altro, come è noto,
tendono a smagnetizzarsi con l’uso). Erano utilizzati prevalentemente come console
per videogiochi, oppure per i primi approcci con la programmazione.
Con oltre dieci milioni di macchine vendute, il più rappresentativo computer di
questa categoria fu il Commodore 64. Anche lo ZX Spectrum della Sinclair ebbe
buona diffusione.
Per Personal Computer (PC) si intende un microcomputer economico destinato, prevalentemente, a un utilizzo personale da parte di un singolo individuo. Si
distingue da un Home computer principalmente perché si prestano - grazie alle maggiori risorse hardware e software a disposizione - a utilizzi maggiormente produttivi
rispetto a questi ultimi, destinati invece a un utilizzo ludico o didattico. A differenza degli Home Computer, i PC odierni sono sempre più espandibili, sempre più
spesso hanno più processori per supportare il multitasking, inoltre si prestano alla
multimedialità, tutte cose che al tempo degli Home Computer erano considerate
quasi fantascienza; si pensi che nella maggior parte dei casi questi nemmeno erano
dotati di disco rigido e visualizzavano al massimo 16 colori standard (i mezzitoni si
ottenevano con artifici grafici).
Dato che la definizione di Personal Computer si consolidò definitivamente con
la diffusione dei computer PC IBM, oggi per Personal Computer (PC) spesso si
intende un computer da essi derivato, ma inizialmente il termine andrebbe riferito
a macchine con sistemi operativi e tipi di microprocessori del tutto diversi, quali
l’Olivetti P6060 e le prime versioni dell’Apple.
personal
computer
26
Il sistema di elaborazione
Panoramica dell’architettura di un elaboratore
struttura
generale
il case
raffreddamento
scheda
madre
periferiche
La macchina elaboratrice è adagiata all’interno di un cabinet o case e viene
alimentata elettricamente da un’unità (alimentatore), interna od esterna che fornirà
al sistema le giuste tensioni elettriche alle sue diverse componenti, nei termini della
potenza e stabilità richieste.
Dal punto di vista pratico e costruttivo tutti i computer di questa categoria,
hanno almeno una CPU, una certa quantità di memoria primaria di lavoro, generalmente volatile ma piuttosto veloce (RAM) e una certa quantità di memoria non
volatile. Quest’ultima è suddivisa in una piccola parte (ROM, PROM, EPROM,
EEPROM o Flash) in cui è scritto il primo programma da eseguire all’avvio (Boot)
del computer stesso.
Esempi di memoria ROM sono l’Open Firmware e BIOS (Basic Input Output
System), che assolvono comunque anche ad altre funzioni di base. In particolare
il BIOS ha il compito di dare i primi comandi al sistema durante la fase di avvio. In questa fase, dopo i controlli preliminari sulla funzionalità dei componenti
fondamentali (memoria RAM, tastiera, dischi, porte), per sapere come inizializzare
correttamente le periferiche presenti il BIOS legge alcuni parametri (come l’ora e
la data correnti) da una piccola memoria RAM CMOS tamponata, cioè mantenuta alimentata anche a PC spento da una batteria, del tutto separata dalla RAM
principale del computer.
Il componente forse meno essenziale, ma che caratterizza il calcolatore al primo
colpo d’occhio è l’involucro, generalmente chiamato case nei personal computer e
cabinet nei sistemi più grandi. Il telaio che meccanicamente sostiene la componentistica, l’apparato di raffreddamento generale, e l’involucro esterno caratterizzano e
in parte differenziano i molti tipi di macchine finora viste.
Elemento fondamentale è l’apparato di raffreddamento. Attualmente molti calcolatori montano sistemi di raffreddamento sui singoli chip, come CPU e GPU o
altri, i quali possono andare da una semplice alettatura per il raffreddamento ad
aria, a ventole, o a sistemi con circolazione di liquidi di raffreddamento. In aggiunta a questi, nel case del computer vengono predisposti ulteriori altri sistemi per la
circolazione e l’espulsione dell’aria calda generata. Nei cabinet dei mainframe e dei
supercomputer, il problema del raffreddamento è notevole, e l’energia in gioco spesa
nell’implementarlo è una quota rilevante del costo del sistema. Sistemi architetturalmente moderni o di piccole dimensioni riescono ad avere una generazione di calore
talmente bassa da fare a meno di ventole od altre parti in movimento, con evidenti
vantaggi, a pari dispersione termica, in termini di silenziosità o di consumi. Il telaio
e l’involucro caratterizzano visivamente la macchina, e possono situarsi in un arco
dimensionale che va dal computer palmare, alle armadiature dei grossi sistemi.
In genere i tre componenti suddetti, escludendo solitamente la parte di memoria
di massa, si trovano implementati fisicamente insieme sullo stesso circuito integrato
o sulla stessa scheda elettronica, che in questo caso viene detta scheda madre o
mainboard, o eventualmente in schede figlie o d’espansione direttamente inserite
nella stessa scheda madre.
Oltre ad eseguire programmi un computer deve anche poter comunicare con
l’esterno ovvero con l’utente o con altri dispositivi: per questo sono sempre presenti
Il sistema di elaborazione
27
un certo numero di interfacce verso vari dispositivi dette periferiche di sistema
quali ad esempio l’I/O. Quasi sempre, tranne nei casi di microcontrollori molto
semplici, è infatti prevista la possibilità di collegare una tastiera e un dispositivo
di visualizzazione (monitor, stampante, schermo). Inoltre un computer fa spesso
uso di memorie di massa per registrare dati e programmi liberando così spazio nella
memoria RAM ed è quasi sempre possibile collegare ad esso periferiche esterne e/o
schede di espansione.
Una delle schede di espansione più importanti è la scheda video che è l’elemento
hardware che si occupa dell’elaborazione delle immagini e della loro visualizzazione
sul video. Altre schede d’espansione sono la scheda audio, la scheda di rete, la
scheda Wi-Fi.
La CPU, sigla di Central Processing Unit, è uno dei componenti della macchina
di Von Neumann, il più diffuso modello teorico-implementativo di computer. Essa è
un circuito integrato programmabile dall’utente tramite programma applicativo ed è
il cervello vero e proprio del computer ovvero il dispositivo che ha il compito di elaborare (processing) le informazioni (dati) provenienti dalla memoria decodificando
ed eseguendo le istruzioni operative in codice macchina del programma e appartenenti al set di istruzioni fondamentali/specifiche della CPU. Si suddivide in Unità di
Controllo (Control Unit) ed Unità Logico Aritmetica (ALU). La sua conformazione,
detta architettura, è stata soggetta ad evoluzione nel tempo, integrando progressivamente quantità sempre maggiori di transistor, arricchendosi di memoria interna
detta cache di primo livello, aumentando la dimensione del bus dati e integrando più
di una struttura esecutiva delle istruzioni, detta pipeline, aumentando così il grado
di parallelismo. Nelle ultime versioni si hanno più CPU che coesistono insieme sullo
stesso circuito integrato, detto quindi processore multicore, ad esempio dual-core o
quad core a seconda che ospiti due o quattro processori in parallelo.
scheda video
CPU
processori
multicore
L’unità centrale di elaborazione
L’unità di elaborazione centrale (abbreviazione comunemente utilizzata: CPU) o
processore centrale è una tipologia di processore digitale general purpose la quale si
contraddistingue per sovrintendere tutte le funzionalità del computer digitale basato
sull’architettura di von Neumann.
Il compito della CPU è quello di eseguire le istruzioni di un programma presente
in memoria. Durante l’esecuzione del programma la CPU legge o scrive dati in
memoria. Il risultato dell’esecuzione dipende dal dato su cui si opera e dallo stato
interno in cui la CPU stessa si trova, e può mantenere la traccia delle operazioni
passate.
Una generica CPU contiene un’unità di controllo, un’unità aritmetico logica e
un set di registri.
L’unità di controllo (anche nota con l’acronimo CU) che legge dalla memoria
le istruzioni, se occorre legge anche i dati per l’istruzione letta, esegue l’istruzione
e memorizza il risultato se c’è, scrivendolo in memoria o in un registro della CPU.
L’unità aritmetica e logica (anche nota con l’acronimo ALU) che si occupa di
eseguire le operazioni logiche e aritmetiche.
CU
ALU
28
Il sistema di elaborazione
I registri sono speciali locazioni di memoria interne alla CPU, molto veloci, a cui
è possibile accedere molto più rapidamente che alla memoria: il valore complessivo
di tutti i registri della CPU costituisce lo stato in cui essa si trova attualmente.
FPU e MMU
Possono affiancare la CPU due unità ausiliarie: la FPU e la MMU. La FPU
(Floating Point Unit) si occupa di eseguire calcoli in virgola mobile, mentre la MMU
(Memory Management Unit) si occupa di tradurre gli indirizzi di memoria logici in
indirizzi fisici, supportando la protezione della memoria e/o uno o più meccanismi
di memoria virtuale.
istruzioni
Le istruzioni di una CPU (instruction set) sono semplicemente dei numeri, detti
macchina
opcode o codici operativi: in base al loro valore l’unità di controllo intraprende delle
azioni predefinite, come per esempio leggere la successiva locazione di memoria per
caricare un dato, oppure attivare la ALU per eseguire un calcolo, oppure scrivere il
contenuto di un registro in una certa locazione di memoria o in un altro registro,
oppure una combinazione di queste.
Per una persona, stendere programmi scrivendo direttamente gli opcode è estremamente noioso e prono all’errore. Per questo motivo si utilizza l’assembly, che
associa un simbolo mnemonico ad ogni istruzione della CPU e introduce una sintassi
che permette di esprimere i vari metodi di indirizzamento in modo più intuitivo.
GPU
Un particolare tipo di unità di elaborazione è l’unità di elaborazione grafica o
processore grafico, anche nota come GPU. Essa è una tipologia di coprocessore che
si contraddistingue per essere specializzata nel rendering di immagini grafiche.
microprocessore
Il microprocessore è attualmente l’implementazione più comune della CPU e
della GPU, utilizzato dalla quasi totalità dei moderni computer, con la caratteristica
di utilizzare, per tutte le sue elaborazioni, un insieme di istruzioni fondamentali di
base (instruction set). Il microprocessore è montato sulla scheda madre e collegato
alle altre periferiche interne (schede elettroniche) attraverso il chipset, presente
anch’esso sulla scheda madre, e relative interfacce di collegamento.
Attualmente la tendenza è di inserire anche più processori nel medesimo circuito
integrato. In particolare, da una decina d’anni, la tendenza è di inserire, nel medesimo circuito integrato, molteplici CPU tutte identiche (tale circuito integrato è
chiamato processore multicore). Da qualche anno inoltre è in atto la tendenza ad
inserire, nel medesimo circuito integrato, oltre a molteplici CPU, anche una GPU.
prestazioni
I parametri che caratterizzano un processore e permettono di valutarne le prestazioni sono la dimensione dei registri, la frequenza di clock, la quantità di memoria
cache.
dimensione
La dimensione del registro della CPU indica la quantità di dati che l’unità
dei registri
elabora e invia nell’unità di tempo. Una CPU che adotta registri di 16 bit, per ogni
accesso in lettura in memoria, legge due byte e le operazioni vengono effettuate
considerando 16 bit per volta. Tutti i registri in cui vengono conservati dati, hanno
questa dimensione. Nelle CPU attuali vengono utilizzati registri di 32 bit e 64 bit
(Architetture a 64 bit) e si sta migrando verso architetture 128 bit.
frequenza di
Un’altra caratteristica nota di un microprocessore è la sua frequenza di lavoro,
clock
detta anche frequenza di clock. Essa indica il numero di volte al secondo in cui
vengono eseguite le operazioni fondamentali della CPU. Bisogna prestare attenzione
al fatto che esistono due tipi di frequenza di clock : una interna, che gestisce
le operazioni della CPU, e una esterna, più bassa, che regola la velocità con cui
registri
Il sistema di elaborazione
29
viaggiano le informazioni sul bus di sistema. La velocità del microprocessore è
determinata dal ritmo del segnale di clock esterno, creato dalla scheda madre. Il
processore stesso poi, grazie ad un moltiplicatore interno, provvede a innalzare tale
clock alla propria frequenza lavorativa. L’unità di misura della frequenza di clock
e il megahertz, dove 1MHz è pari a 1 milione di oscillazioni al secondo, quindi un
processore da 3200MHz compie 3 miliardi e 200 mila oscillazioni, ovvero operazioni
fondamentali.
Memorie e dispositivi di memorizzazione
la memoria è la parte del computer destinata a conservare informazioni per
un certo periodo di tempo. La memorizzazione di informazioni in memoria, e il
successivo recupero delle medesime, sono funzioni fondamentali nel funzionamento
del computer.
È una parte essenziale nonché una delle chiavi di successo (assieme alla capacità
di processamento e alla riprogrammabilità) del computer grazie alla possibilità di
memorizzare, nei moderni sistemi elettronici, grandi quantità di dati ben oltre le
capacità umane. In essa sono memorizzati dati d’archivio dell’utente e le istruzioni
dei programmi sfruttabili dall’utente.
Una memoria può essere considerata astrattamente come una sequenza finita
di celle in cui ogni cella contiene una sequenza finita di bit, normalmente gestiti
a gruppi di otto detti byte. Pertanto lo spazio fisico della memoria può essere
immaginato come una sequenza di posizioni, ognuna contenente un byte. Ogni
posizione è individuata da un preciso indirizzo di memoria, normalmente espresso
tramite un numero intero positivo.
Le operazioni effettuate sulla memoria di un computer sono fondamentalmente
le operazioni di inizializzazione, scrittura e lettura.
L’ inizializzazione è il trattamento che subisce la memoria prima dell’uso normale. Alcuni tipi di memoria (per esempio la RAM elettronica) non hanno bisogno
di inizializzazione; per tali memorie, il contenuto iniziale è impredicibile. Per le memorie a sola lettura, l’inizializzazione consiste nella scrittura dei dati effettuata in
fase di produzione. Per i dischi magnetici, l’inizializzazione consiste nella scrittura
di dati che costituiscono un casellario in cui porre le informazioni utili (la cosiddetta
formattazione).
La scrittura è l’operazione di memorizzazione delle informazioni. Un esempio
di scrittura è assegnare il byte 123 alla cella di indirizzo 1000.
La lettura è l’operazione di recupero di informazioni memorizzate. Un esempio
di lettura è chiedere alla memoria il contenuto della cella di indirizzo 1000. Si accede
inoltre alla memoria e ai suoi contenuti ogni qual volta l’Unità di Controllo (Control
Unit) del Processore richiede dati utili su cui eseguire un’operazione di elaborazione.
Per parlare indifferentemente di lettura o di scrittura, si usa il termine accesso.
Per esempio, per indicare che una memoria è veloce sia in lettura che in scrittura,
si dice che ha un basso tempo di accesso.
La memoria informatica si può classificare secondo vari criteri:
operazioni
inizializzazione
scrittura
lettura
accesso
classificazione
Il sistema di elaborazione
30
• ordine di accesso (memorie ad accesso diretto o memorie ad accesso sequenziale);
• possibilità di scrittura (memorie a lettura-scrittura, memorie scrivibili una sola
volta, memorie a sola lettura);
• velocità di lettura;
• velocità di scrittura;
• costo unitario;
• volatilità;
• tecnologia (elettronica, magnetica, ottica).
volatilità
Le memorie per computer possono usare varie tecnologie che forniscono prestazioni e costi molto variabili. Spesso per le memorie veloci ma dall’alto costo unitario
si usa l’espressione memoria centrale o memoria primaria, mentre per le memorie
dal basso costo unitario ma lente si usa l’espressione memoria di massa o memoria
secondaria.
In base alla capacità di memorizzare in maniera permanente i dati si distinguono due tipologie di memoria: memorie volatili e non volatili. Le memorie volatili
perdono le informazioni se non alimentate elettricamente (lo sono la maggior parte
delle memorie elettroniche RAM), mentre le memorie non volatili mantengono le
informazioni anche se non alimentate elettricamente (lo sono tutti gli altri tipi di
memoria).
I difetti della volatilità sono il consumo di energia per conservare le informazioni, la necessità di una fonte di energia rende meno portabile e maneggevole la
memoria (i CD-ROM, per esempio, se dovessero avere un’alimentazione a batteria
per mantenere le informazioni, sarebbero molto più costosi e scomodi) e la perdita
delle informazioni in caso di malfunzionamento o manutenzione del computer.
Nonostante i loro difetti, le memorie volatili sono molto utilizzate, in quanto
hanno tempi di accesso molto inferiori a quelli di altre memorie.
La memoria primaria
memoria
virtuale
Collegata alla scheda madre tramite connettori chiamati socket ed alla CPU
tramite il BUS di sistema, la memoria primaria, chiamata anche memoria centrale
o memoria principale, contiene dati ed istruzioni in attesa che questi siano prelevati
dal microprocessore per essere elaborati, lavorando dunque in maniera strettamente
accoppiata con esso. È una parte importante del computer in quanto dalle sue
dimensioni in termini di capacità di immagazzinamento dipende dunque la quantità
massima di dati che possono essere prelevati e dunque elaborati dal processore in
condizioni di monotasking e multitasking ed è dunque considerata un parametro
prestazionale del computer stesso. Qualora la memoria primaria venga esaurita
molti sistemi di elaborazione moderni sono in grado di implementare il cosiddetto meccanismo della memoria virtuale come estensione provvisoria della memoria
primaria.
Il sistema di elaborazione
31
Per realizzare una memoria principale vengono normalmente utilizzate tecnologie
a semiconduttore (cioè vengono utilizzati circuiti integrati a base di silicio).
Tale memoria è costituita da numerosissime celle di memoria, dispositivi bistabili, capaci cioè di assumere due stati stabili alternativi attraverso i quali è possibile
memorizzare la quantità minima di informazione (1 bit). Le operazioni che possono
essere effettuate su questo componente sono due: lettura (load) e scrittura (store).
Poiché nella realtà quotidiana le scelte possibili in vari casi sono molte più di due,
un bit non è più sufficiente a rappresentarle e pertanto si è pensato di unire più
celle di memoria in registri di memoria. Se con un solo bit è possibile ottenere
solo due diversi stati, con due celle (2 bit) è possibile rappresentare 22 alternative,
con l’associazione di 3 celle (3 bit) 23 alternative, e così via... In particolare, la
dimensione del registro più diffusa è quella da 8 bit. L’unione di 8 bit forma infatti 1 byte di memoria, il primo multiplo del bit, il quale può rappresentare fino a
256 possibili combinazioni diverse (28 ). In un registro di memoria le operazioni di
lettura/scrittura avvengono contemporaneamente su tutte le celle facenti parte del
registro. In memorie con registri da 1 byte, quindi, vengono lette 8 celle alla volta.
struttura
Bisogna distinguere tra vari tipi di memorie primarie, a seconda della funzione
svolta e delle loro caratteristiche peculiari. Di seguito vengono elencate quelle più
importanti.
La memoria RAM, dall’acronimo per random access memory, ovvero memoria
ad accesso casuale, è la memoria in cui vengono caricati i dati che devono essere
utilizzati dal calcolatore per elaborare. La RAM può essere volatile (si cancella
spontaneamente ed ha bisogno di essere aggiornata), statica o tamponata (mantiene
l’alimentazione anche a macchina spenta). Il processore identifica le celle della
RAM tramite indirizzi preassegnati che ne specificano la posizione: la memoria si
presenta, quindi, come un enorme vettore (stringa ordinata di elementi detti byte,
ciascuno individuabile con un indirizzo). Il termine random evidenzia che non ci sono
differenze ad accedere alle varie celle della memoria. Le caratteristiche della RAM
vengono ereditate anche da tutte le altre memorie ad accesso casuale (individuabili
facilmente dal fatto che contengono RAM alla fine). Sostanzialmente le memorie
RAM si suddividono in DRAM (dinamiche), SRAM statiche e che vengono utilizzate
per la memoria cache.
RAM
La cache RAM è una memoria associativa integrata nel processore e ha la caratteristica di essere molto veloce; dato l’elevato costo, viene utilizzata esclusivamente
per contenere i dati e le istruzioni utilizzati più di frequente (in modo da migliorare
notevolmente le prestazioni del processore).
cache
La memoria ROM, dall’acronimo per read only memory, ovvero memoria in sola
lettura (o solamente leggibile), è una memoria permanente (cioè ha un contenuto
fisso che non può essere cancellato ed inoltre non è volatile), presente sulla scheda
madre, che contiene le istruzioni che la CPU deve caricare per consentire l’avvio del
sistema e le routine di base che prendono il nome di BIOS (Basic I/O System).
ROM
Infine la sigla EPROM, acronimo per erasable programmable read only memory,
identifica una memoria ROM cancellabile e programmabile, che è una memoria in
sola lettura, ma ha la particolarità di poter essere cancellata in particolari condizioni.
EPROM
32
Il sistema di elaborazione
Il dissco rigido
Un disco rigido o disco fisso, anche chiamato hard disk drive, è un dispositivo
di memoria di massa di tipo magnetico che utilizza uno o più dischi magnetizzati
per l’archiviazione dei dati. Esso è una periferica di input-output del computer ed
è uno dei tipi di dispositivi di memoria di massa attualmente più utilizzati essendo
presente nella maggior parte dei computer ed anche in altri dispositivi elettronici.
L’hard disk è stato inventato nel 1956 dall’IBM. Il primo prototipo era costituito
da 50 dischi del diametro di 24 pollici (circa 60 cm) e poteva immagazzinare circa
5 megabyte di dati. Era grande quanto un frigorifero, con un peso di oltre una
tonnellata. La denominazione originaria era fixed disk (disco fisso), il termine hard
disk (disco rigido) nacque intorno al 1970 per contrapposizione coi neonati floppy
disk (dischetti).
Il disco rigido è costituito fondamentalmente da uno o più piatti in rapida rotazione, realizzati in alluminio o vetro, rivestiti di materiale ferromagnetico e da due
testine per ogni disco (una per lato), le quali, durante il funzionamento volano alla
distanza di poche decine di nanometri dalla superficie del disco leggendo o scrivendo
i dati. La testina è tenuta sollevata dall’aria mossa dalla rotazione stessa dei dischi
la cui frequenza o velocità di rotazione può superare i 15.000 giri al minuto.
Tipicamente per la memorizzazione di dati digitali il disco rigido necessita dell’operazione preliminare di formattazione logica con scelta del particolare sistema
logico di archiviazione dei dati da utilizzare noto come file system, tramite il quale
il sistema operativo è in grado di scrivere e recuperare i dati.
I dati, a livello fisico, sono generalmente memorizzati su disco seguendo uno
schema di allocazione fisica ben definito in base al quale si può raggiungere la
zona dove leggere/scrivere i dati sul disco. Uno dei più diffusi è il cosiddetto CHS
acronimo per il termine inglese Cylinder/Head/Sector (Cilindro/Testina/Settore);
Un disco rigido infatti si compone di uno o più dischi paralleli, di cui ogni
superficie, detta piatto e identificata da un numero univoco, è destinata alla memorizzazione dei dati. Ogni piatto si compone di numerosi anelli concentrici numerati,
detti tracce, ciascuna identificata da un numero univoco. L’insieme di tracce alla
stessa distanza dal centro presenti su tutti i dischi è detto cilindro. Corrisponde a
tutte le tracce aventi il medesimo numero, ma diverso piatto. Ogni piatto è suddiviso in settori circolari, ovvero in spicchi radiali uguali ciascuno identificato da un
numero univoco. Su ogni piatto è presente una testina per accedere in scrittura o
in lettura ai dati memorizzati sul piatto; la posizione di tale testina è solidale con
tutte le altre sugli altri piatti. In altre parole, se una testina è posizionata sopra una
traccia, tutte le testine saranno posizionate nel cilindro a cui la traccia appartiene.
Infine l’insieme di frammenti di tracce contigui è detto cluster.
in questa struttura i dati sono memorizzati avendo come indirizzo fisico un
numero per ciascuna delle precedenti entità fisiche.
I dischi ottici
Il disco ottico è una tipologia di supporto di memoria. È costituito da un disco
piatto e sottile in genere di policarbonato trasparente. Al suo interno è inserito un
Il sistema di elaborazione
33
sottile foglio metallico, in genere di alluminio, su cui vengono registrate e lette le
informazioni tramite un raggio laser.
Il Compact disc (CD) è una tipologia standardizzata di disco ottico utilizzata
in vari ambiti per la memorizzazione di informazioni in formato digitale. Esso è
composto da un disco di policarbonato trasparente, generalmente di 12 centimetri di
diametro, accoppiato nella parte superiore ad un sottile foglio di materiale metallico
sul quale, nella parte inferiore vengono memorizzate le informazioni come successioni
di buchi e terre (in inglese pits e lands) successivamente letti per mezzo di un laser
(per questo motivo sono detti anche dischi ottici). Il primo CD per uso commerciale
venne prodotto in una fabbrica della Philips il 17 agosto 1982.
I CD hanno una struttura paragonabile a quella dei normali dischi musicali in vinile: i dati sono ordinati lungo un’unica traccia a forma di spirale, un’organizzazione
quindi molto diversa da quella dei dischi magnetici (hard disk e floppy disk). La
spirale parte al centro (contrariamente ai dischi in vinile) e procede verso l’esterno,
permettendo così di avere CD più piccoli dello standard (per esempio i mini-CD o i
CD a forma di carta di credito).
La struttura a spirale del CD-ROM è tale da massimizzare le prestazioni per
l’accesso sequenziale a scapito dell’accesso diretto. Inoltre poiché il compact disc
non offre alcuna protezione contro la manipolazione e l’usura, è frequente la formazione sulla superficie di graffi o depositi di sporco che possono comprometterne la
lettura. Per ovviare al problema sono adottate complesse tecniche di correzione di
errore e di ridondanza dei dati.
Una caratteristica dei CD audio è data dalla velocità di lettura costante. Il
principio stabilisce che il laser deve leggere i dati a velocità uniforme, sia che si
tratti della parte esterna sia quella interna del disco. Questo si ottiene variando la
velocità di rotazione del disco, che passa da 500 giri al minuto al centro a 200 giri
al minuto all’esterno. I CD dati invece possono essere letti tranquillamente anche a
velocità variabile. Per ottenere prestazioni di lettura elevate il disco viene pertanto
fatto girare a velocità costanti ed elevate, pur se questo comporta un leggero rumore.
La velocità di lettura dati è una caratteristica fondamentale di un CD-ROM: essa
viene contrassegnata da un numero standard seguito da una x, equivalente a 153,6
kB/s (ad es. 4x = 614,4 kB/s). Questa velocità di base indicata con x è quella
a cui vengono letti i CD audio registrati in PCM con 44100 campioni al secondo,
ognuno da due byte per l’altoparlante destro e altri due per quello sinistro.
I formati fisici dei CD sono i seguenti:
• CD Audio: fu il primo tipo di compact disc messo in commercio nei primi
anni ottanta, concepito per la memorizzazione di flussi audio.
• CD-ROM: acronimo di Compact Disc Read Only Memory, sono usati per la
memorizzazione di dati generici. Si ottengono per stampa, con appositi macchinari industriali. I CD-ROM di più larga distribuzione hanno una capienza
di 74 minuti/650 MB e di 80 minuti/700 MB, mentre più rari sono i formati
da 90 minuti/800 MB e da 100 minuti/870 MB.
• CD-R: è la sigla che contraddistingue i compact disc masterizzabili (dall’inglese Compact Disc-Recordable). I CD-R appartengono alla famiglia di supporti
CD
pits a lands
34
Il sistema di elaborazione
di tipo WORM (Write Once Read Many), cioè di quelli che possono essere scritti (masterizzati) una sola volta in maniera permanente ed essere letti
molte volte.
• CD-RW: è la sigla che contraddistingue il CD riscrivibile (Cd Rewritable),
un particolare tipo di CD in cui i dati possono essere modificati anche dopo la prima masterizzazione. Noto con il nome di CD-E (CD-Erasable, CD
cancellabile) durante il suo sviluppo, è stato introdotto nel 1997.
DVD
Blu Ray
HD-DVD
Il DVD, acronimo di Digital Versatile Disk (in italiano Disco Versatile Digitale,
originariamente Digital Video Disc, Disco Video Digitale) è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell’elettronica
di consumo: l’associazione d’imprese che si incaricò di redigere le specifiche del
nuovo supporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner,
Toshiba, JVC, Thomson e Pioneer. L’intento era quello di creare un formato di
immagazzinamento di grandi quantità di video digitali che fosse accettato senza
riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza
del mercato dovuti alla concorrenza fra formati che si erano presentati al tempo
dell’introduzione delle videocassette per uso domestico.
Il formato del DVD fu introdotto nel 1995. Il formato DVD-R, lo standard
ufficiale per i DVD Registrabili, è stato invece formalizzato nel corso del 1999. Nel
2000 è stato formalizzato lo standard DVD-RW, che ricalca le caratteristiche dei
DVD-R. Negli anni necessari alla formalizzazione dello standard DVD-R, sono stati
commercializzati altri 2 formati per la registrazione in formato DVD: il DVD+R
(e DVD+RW) dal consorzio Sony-Philips. Questi formati differiscono notevolmente
dal formato DVD-R in termini tecnici, anche se i più moderni lettori e masterizzatori
sono in grado di supportare DVD registrabili in qualunque formato. Più recente è
l’introduzione di standard per la masterizzazione di DVD a doppio strato e con
una capienza di circa 8,5 GB di informazioni. Il formato DVD+R Double Layer
(c.d. DVD+R DL) fu introdotto nel 2002, mentre solo nel 2004 si è formalizzato
lo standard ufficiale DVD-R DL.
Il Blu-ray Disc (acronimo ufficiale BD) è il supporto ottico proposto dalla Sony
agli inizi del 2002 come evoluzione del DVD per la televisione ad alta definizione.
Grazie all’utilizzo di un laser a luce blu (405 nm), di lunghezza d’onda più corta
rispetto al CD (720 nm) ed al DVD (650 nm), il Bluray riesce a contenere fino a
200 GB di dati, ovvero quasi 40 volte di più rispetto a un DVD Single Layer-Single
Side (4,7 GB). Tuttavia un disco da 25 GB risulta sufficiente per contenere circa 2
ore di filmato ad alta definizione utilizzando il tradizionale codec MPEG-2.
anche l’HD DVD (acronimo di High Definition Digital Versatile Disc) era un
formato ottico digitale sviluppato al fine di diventare uno standard per i DVD di
nuova generazione adatti ai contenuti ad alta definizione, promosso da Toshiba,
NEC, Sanyo, Microsoft e inizialmente supportato da Paramount Pictures, Dreamworks e da Universal Studios. Ma il 19 febbraio 2008 Blu-ray ha definitivamente
vinto la sua competizione con l’HD DVD, visto che Toshiba, titolare dei diritti sullo
standard concorrente, ha dichiarato la chiusura del progetto e la dismissione delle
attività collegate.
Il sistema di elaborazione
35
Gerarchie di memoria
La grande quantità di dati normalmente presente in un elaboratore è memorizzata su supporti che possono presentare caratteristiche molto diverse tra loro, in
termini di tempo di accesso, di capacità e di costo. Tali supporti sono organizzati
come una struttura gerarchica in cui al livello più alto troviamo i dispositivi di memoria più lenti, con capacità maggiore e meno costosi; man mano che si scende in
questa gerarchia, i supporti hanno capacità sempre più piccola, tempo di accesso
sempre più basso e costo maggiore. L’obbiettivo che si vuole raggiungere è quello
di ottimizzare il rapporto prestazioni/costo, ottenendo, così, prestazioni equiparabili
al caso in cui tutte le informazioni necessarie siano disponibili al livello più basso
della gerarchia, con un costo paragonabile al caso in cui siano concentrate al livello
più alto.
In un elaboratore comune una tipica gerarchia di memoria è quella in cui si trova,
al livello più alto, il disco fisso, dove le informazioni vengono conservate in maniera
permanente. Subito dopo si trova la memoria principale (DRAM/SDRAM), di
elevata capacità nell’ordine del GB, basso costo e basso tempo di accesso. Qui
vengono conservate le informazioni relative ai processi in esecuzione: quando un
nuovo processo viene caricato, vi verranno trasferite almeno le informazioni basilari
che ne permetteranno la messa in esecuzione. Nel caso tale livello della gerarchia
risultasse saturo, verranno adottate politiche di ottimizzazione che possono consistere dalla compattazione della memoria allo swap-out delle pagine, il quale consiste
nel trasferimento di informazioni al livello superiore, ossia al disco fisso.
Ai livelli inferiori abbiamo la memoria cache; possono esistere più livelli di questo
tipo di memoria e vengono normalmente indicati con una serie decrescente di numeri,
via via che si scende nella gerarchia. Normalmente il livello cache L1 è on-chip, ossia
è direttamente presente nella CPU in maniera tale da ridurre fisicamente la latenza
dei collegamenti. Il livello più basso della gerarchia è sicuramente rappresentato
dai registri del processore il cui tempo di accesso è valutabile in un ciclo di clock.
disco fisso
RAM
swap
cache
registri
Dispositivi di Input-Output
Con il temine periferica si intende qualunque apparecchiatura elettronica hardware che possa essere connessa ad un computer per ricevere od inviare dati. Si
distinguono in periferiche di output (es: monitor) quando ricevono dati, di input
(es: tastiera) quando li inviano. Alcune periferiche posso svolgere entrambe le
funzioni (es: chiavetta usb).
La tastiera
La tastiera è un dispositivo di input del computer atto all’inserimento manuale
di dati nella memoria del computer e al controllo del computer stesso. Per l’utilizzo
efficiente e veloce della tastiera alfanumerica esiste una tecnica, la dattilografia, nata
con la macchina per scrivere. Nella maggior parte dei casi la tastiera alfanumerica
ha mutuato infatti la disposizione dei tasti da tale dispositivo.
Sono adottati vari schemi per la disposizione dei tasti delle tastiere alfanume-
QUERTY
36
tastierino
numerico
Il sistema di elaborazione
riche. Il più comune di essi è il QWERTY. Generalmente ci sono 103 tasti nella
disposizione QWERTY (dalle lettere della prima riga di tasti), alcuni dei quali con
funzioni particolari. Ogni tasto è associato ad una lettera, ad un numero, ad un
segno grafico oppure ad una funzione. Il nome QWERTY deriva dalla sequenza
delle lettere dei primi sei tasti della riga superiore della tastiera
La tastiera alfanumerica può essere dotata della cosiddetta tastierina numerica
(anche detta tastierino numerico). La tastierina numerica è un gruppo di tasti che
replica i tasti dei numeri e degli operatori aritmetici. Tali tasti sono disposti tutti
affiancati e hanno la funzione di velocizzare le operazioni aritmetiche per chi ne fa
un utilizzo intenso (ad esempio un contabile).
Dispositivi di puntamento
joystick
trackball
emulatori
touch pad
touch screen
Il dispositivo di puntamento è un sistema di input che permette un accesso alle
zone di manipolazione dati. Il puntatore di norma è una freccia, ma può assumere
diverse forme, secondo le funzioni del programma che lo sta impiegando. Il dispositivo di puntamento più comune è il mouse che possiede almeno due tasti (tasto
destro e sinistro), configurabili. Viene detto comunemente click la pressione del
tasto sinistro del mouse, click destro la pressione del tasto destro, drag and drop
la pressione continua con trascinamento, doppio click una doppia pressione veloce
del tasto. Attraverso Accesso Facilitato, opzione che si trova nei sistemi operativi
Windows è possibile impostare delle facilitazioni per l’uso della mouse. In commercio esistono una vasta gamma di prodotti che risolvono i diversi problemi che molti
disabili incontrano nell’utilizzo del mouse.
Il Joystick è una periferica che trasforma i movimenti di una leva manovrata
dall’utente in una serie di segnali elettrici o elettronici che si traducono in degli
spostamenti del puntatore. Le direzioni nelle quali si può spostare la leva sono
prefissate solitamente a otto ed è dotato di pulsanti che riproducono tutte le funzioni
del mouse e che ne regolano la velocità del puntatore.
La Trackball è un mouse che consiste in una sfera applicata ad un contenitore.
La sfera viene spostata con le dita. La trackball funziona quindi come una specie
di mouse al contrario. Il contenitore e la sfera solitamente sono fatti di materiale
plastico. Il vantaggio della trackball è che così solo poche dita debbono muoversi e
la mano è a riposo
Gli emulatori di mouse sono dei sistemi hardware/software che per mettono di
utilizzare il mouse col capo, con gli occhi e con altri moventi se volontari e controllati
Il Touch Pad è una periferica che serve per spostare il puntatore sul monitor
utilizzando il proprio dito su una piccola superficie sensibile di forma quadrata o
rettangolare e di dimensioni variabili. Il touch pad può essere integrato oppure
esterno.
Il Touch screen è un dispositivo hardware che consente all’utente di interagire
con un computer toccando lo schermo. Lo si può dunque considerare come l’unione
di un dispositivo di output (lo schermo) e un dispositivo di input (il sistema che
rileva il contatto con lo schermo stesso, ricavandone la posizione). Quest’ultimo
meccanismo è alternativo all’uso di altri dispositivi di puntamento come il mouse o
la touch pad.
Il sistema di elaborazione
37
I sensori
Un sensore è un dispositivo che trasforma una grandezza fisica in un segnale
tipicamente elettrico. Sono dei particolari pulsanti di tipo on-off che permettono
alla persona con disabilità di interfacciarsi ad un computer, ad un piccolo elettrodomestico ecc. In relazione alle modalità di attivazione essi si distinguono in diverse
tipologie.
• Meccanici: il loro sistema di funzionamento si basa su meccanismi meccanici
attivabili attraverso semplici pressioni. Pulsanti, lamelle, leve ecc...
• Pneumatici: l’attivazione del comando avviene attraverso la rilevazione di una
variazione di pressione provocata da un soffio od un succhio.
• Acustici: il funzionamento si basa sulla rilevazione di un suono
• Ottici: si basano generalmente su delle fotocellule che rilevano i movimenti
della persona.
• Biopotenziali: sfruttano la produzione di impulsi elettrici o la variazione dei
potenziali.
• Multipli: vanno intese quelle apparecchiature che permettono l’emulazione
del mouse.
Il monitor video
Il monitor video è un apparecchio elettronico che consente la valutazione dei dati
in uscita da diverse tipologie di strumentazione sotto l’aspetto di immagini visibili.
Esso dunque assolve la funzione di trasduttore di segnali elettrici o elettromagnetici
in ingresso in segnali visivi o ottici bidimensionali in uscita. Le immagini video
possono essere statiche o in movimento. Può eventualmente essere dotato di casse
per la riproduzione dell’audio e di altri tipi di connettori (es. USB). Il monitor viene
anche chiamato videoterminale.
Il componente principale di un monitor è il display, cioè il dispositivo elettronico
per la visualizzazione. In base alla tecnologia usata si distinguono diverse tipologie
di display.
Lo schermo a tubo catodico o schermo CRT, è una tipologia di display ormai
quasi del tutto soppiantata, a partire dall’inizio del secolo, dallo schermo a cristalli
liquidi e dallo schermo al plasma. Quando è utilizzato per applicazioni video (ad
esempio per realizzare monitor e televisori) è anche chiamato cinescopio. Per creare
le immagini lo schermo a tubo catodico utilizza un tubo a raggi catodici nel quale
i raggi catodici sono convogliati ad hoc su di una superficie fotosensibile.
Attualmente per la tecnologia del tubo catodico è in corso una progressiva obsolescenza in favore dei display a matrici di pixel, quali quelli basati su tecnologie al
plasma, a o cristalli liquidi, meno ingombranti e con costi di produzione in continua
discesa. I monitor a tubo catodico presentano il vantaggio, rispetto alle tecnologie
display
CRT
38
plasma
LCD
prestazioni
risoluzione
contrasto
tempo di
risposta
Il sistema di elaborazione
concorrenti, di una migliore velocità di reazione (o minore latenza, molto apprezzata nell’uso dei videogiochi), immagini con colori più fedeli e più parsimoniosi nei
consumi e il consumo si riduce ulteriormente in caso di immagini scure.
Gli schermi al plasma, in sigla PDP (del corrispondente termine inglese plasma
display panel), sono luminosi, hanno un ampio gamut di colori e possono essere prodotti in grandissime dimensioni, fino a 262 cm (103 pollici) diagonalmente.
Recentemente al CES di Las Vegas di gennaio 2008, Panasonic ha presentato un
prototipo di pannello da ben 150 pollici, che è attualmente lo schermo piatto più
grande del mondo mai realizzato. Hanno un grandissimo livello di nero, creando
il nero perfetto desiderabile per guardare i film. Il pannello dello schermo è largo
soltanto 6 centimetri, mentre la larghezza totale, inclusa la parte elettronica che
gestisce lo schermo, è inferiore ai 10 centimetri.
Il vantaggio principale della tecnologia per schermi al plasma è che si può produrre uno schermo molto grande utilizzando materiali molto sottili. Siccome ogni
pixel viene acceso individualmente, l’immagine è molto luminosa ed ha angolo di
visione molto ampio.
Lo schermo a cristalli liquidi, in sigla LCD dalla corrispondente espressione
inglese liquid crystal display, è una tipologia di display a schermo piatto utilizzata
nei più svariati ambiti, con dimensioni dello schermo che variano da poche decine
di millimetri a oltre 100 pollici.
L’LCD è basato sulle proprietà ottiche di particolari sostanze denominate cristalli
liquidi. Tale liquido è intrappolato fra due superfici vetrose provviste di numerosissimi contatti elettrici con i quali poter applicare un campo elettrico al liquido
contenuto. Il pannello presenta una retroilluminazione e, controllando la torsione
dei cristalli liquidi in ogni pixel, si può dunque regolare quanta luce far passare.
Una delle caratteristiche principali dei pannelli a cristalli liquidi (fatta salva la
retroilluminazione) è il basso consumo di potenza elettrica, che li rende di per sé
particolarmente indicati per applicazioni in apparecchiature alimentate da batterie
elettriche. Inoltre gli schermi LCD sono oggi caratterizzati da una luminosità molto
elevata.
Le caratteristiche principali di uno schermo sono la risoluzione (solo per gli
schermi a matrice), la luminosità, il contrasto, il tempo di risposta e l’angolo di
visuale.
La risoluzione dello schermo è il numero dei pixel orizzontali e verticali presenti
o sviluppabili in uno schermo. Ad esempio, una risoluzione di 640x480 ad esempio
indica che l’immagine sul monitor è formata da 640 colonne e 480 righe.
Il contrasto è il rapporto o differenza tra il valore più alto (punto più luminoso)
e il valore più basso (punto più scuro) della luminosità nell’immagine. Se si aumenta
tale differenza i valori più luminosi tendono al valore massimo e i valori più scuri
tendono al valore minimo. I valori intermedi non cambiano.
Il tempo di risposta, espresso in millisecondi, è la somma del tempo per accendere un pixel (tempo di salita) e del tempo per spegnerlo (tempo di discesa). Se
tale tempo è troppo lungo, le immagini in movimento appaiono con uno strascico.
Attualmente, il tempo di risposta più breve tra i monitor LCD in produzione, è di
2 millisecondi (nei plasma è di 0,001 millisecondi, primato della Panasonic). I due
Il sistema di elaborazione
39
tempi possono differire uno dall’altro, alcuni produttori forniscono entrambi i dati:
tempo di accensione e tempo di spegnimento.
L’angolo di visuale è l’angolo massimo tra la linea di vista e la perpendicolare
allo schermo, oltre il quale la luminosità o la cromaticità dell’immagine risultano
alterati.
La stampante
Una stampante è un apparecchio capace di trasferire su carta i dati forniti da
un computer, siano essi dati in formato testuale o sotto forma di immagini digitali.
Ve ne sono di tre categorie principali
• ad aghi: ormai vecchie ed obsolete. Come le macchine da scrivere usano un
sistema di aghi che battono su un nastro inchiostrato. Molto lente, imprecise
e rumorose
• a getto d’inchiostro: più veloci e precise delle stampanti ad aghi. Spruzzano
un sottilissimo getto d’inchiostro sul foglio. Sono generalmente a colori. Sono
le stampanti economiche più comuni per uso domestico.
• laser: le più veloci, silenziose e precise. Usano una tecnologia simile a quella
delle fotocopiatrici. Sono generalmente in bianco e nero ma ne esistono anche
a colori (molto costose)
Esistono poi altri tipi di stampanti professionali (per es. i Plotter, usati per il disegno
tecnico su grandi formati) Generalmente la stampante si collega alla porta parallela
ma le ultime usano la porta USB.
angolo di
visuale
Scarica