DIZIONARIO INFORMATICA
A
ADA
[dal nome di Ada Lovelace, figlia del poeta inglese G. Byron]. In informatica, linguaggio ad alto livello
sperimentato dal Dipartimento della Difesa degli U.S.A. È strutturato a blocchi con meccanismi per trattare
informazioni astratte e per affrontare in maniera modulare problemi anche in tempo reale. Ha la potenzialità
di modellare sistemi distribuiti su larga scala e di assicurare il controllo da parte dell'utente durante
l'esecuzione del programma. Il linguaggio è molto potente e pensato per un uso il più generale possibile.
Add-on
s. ingl. usato in it. come sm. (propr., accessorio). In informatica, termine che riferito all'hardware indica un
qualsiasi dispositivo da aggiungere all'elaboratore, mentre riferito al software, indica un modulo per integrare
o estendere le funzionalità di un dato programma base.
ADSL
sigla dall'ingl. Asymmetrical Digital Subscriber Line. Tecnologia di compressione di segnali che consente la
trasmissione dati ad alta velocità sul tradizionale doppino di rame delle linee telefoniche. Tra le possibilità
offerte dall'A., una velocità di collegamento a Internet da 30 a 90 volte superiore, un suono che avverte
dell'arrivo di posta elettronica e, contemporaneamente, la normale prosecuzione delle comunicazioni
telefoniche. Nell'ambito delle tecnologie DSL, è già pronta una nuova tecnologia (denominata 3dSL) che
consente di quadruplicare (da 1,5-2 a 8 Megabit al secondo) la velocità consentita dall'A. e fornire servizi
come televisione digitale e video on demand.
Alfanumerico
in informatica, di informazione codificata in caratteri sia alfabetici, sia numerici.
Alimentatore
nella tecnica, dispositivo atto a fornire energia o materiale a un altro sistema.
elettronica ed elettrotecnica
Negli impianti elettrici ed elettronici, insieme di dispositivi, o di parti di circuito, atto a fornire energia elettrica
con determinate caratteristiche di tensione, corrente e frequenza per consentire il corretto funzionamento di
utilizzatori quali televisori, computer, ecc. Gli alimentatori a tensione e corrente costanti si dicono anche
stabilizzatori. Gli alimentatori di alta tensione, utilizzati nei tubi a raggi X, nei tubi a raggi catodici dei
televisori e dei radar, sono generalmente costituiti da duplicatori o da moltiplicatori di tensione. Con
l'affermarsi dell'elettronica di potenza, cioè di componenti allo stato solido che consentono il passaggio di
elevate correnti, si sono sviluppati i cosiddetti alimentatori switching, in cui i componenti elettronici vengono
impiegati come interruttori che commutano ad alta frequenza.
AND
in informatica, operatore logico e corrispondente circuito elettronico. Produce il valore (o livello) 1 solo nel
caso in cui entrambi gli operandi valgano 1, altrimenti il risultato è 0.
Apple
società leader nell'ideazione e produzione di personal computer. Nata come casa costruttrice di piccoli
elaboratori destinati prevalentemente ai videogiochi, la Apple si aprì anche ai mercati degli elaboratori per
uso domestico e didattico. Nel 1983 iniziò la produzione di nuovi PC (Macintosh) basati sull'impiego diretto
del monitor tramite un telecomando di puntamento (mouse) e sull'introduzione di una complessa serie di
accorgimenti volti a creare un dialogo uomo-macchina che rende più accessibile l'uso del PC. L'intera linea
di prodotti Apple ha trovato accoglienza particolarmente favorevole nel mondo della grafica e dell'editoria,
ma si va via via imponendo anche in altri settori consimili. Nel 1991, la società ha concluso un accordo con
la IBM, sua principale rivale, al fine di creare prodotti più sofisticati per quanto riguarda l'hardware e il
software, che permettano il dialogo tra sistemi finora incompatibili tra loro. Tra il 1994 e il 1996 la società ha
stipulato accordi con la International Business Machines Corporation e con la Motorola Incorporated. Nel
1997 il colosso statunitense ha siglato un accordo con la Microsoft e si è impegnato nella vendita diretta di
computer.
Applet
s. ingl. (abbreviazione di Internet application) usato in it. come sf. In informatica, programma, generalmente
di piccole dimensioni, scritto in Java e compilato su di un server, associato a un link in una pagina HTML;
può essere eseguito all'interno del browser che ha scaricato la pagina. L'utilizzo del linguaggio di
programmazione Java, che permette di ottenere la proprietà “compila una volta, esegui ovunque” (compile
once, run everywhere), rende l'esecuzione del programma indipendente dalla piattaforma e dal sistema
operativo del calcolatore in cui risiede il browser (client). Al contrario di una normale applicazione,
l'esecuzione della a., che avviene integralmente nella macchina in cui è stata scaricata, non può portare alla
lettura o alla scrittura di file nel calcolatore client, ma solo nel server, evitando in questo modo di
danneggiare il client. L'uso principale delle a. risulta perciò quello di fornire un'interfaccia locale per
l'interazione col server o piccoli dimostrativi di applicazioni più complesse.
Arpanet
sigla dell'ingl. Advanced Research Projects Agency Network (rete dell'agenzia per progetti di ricerca
avanzata). L'agenzia in questione è la DARPA (Defense Advanced Research Projects Agency) del
Dipartimento della Difesa statunitense, che per prima sviluppò una rete a commutazione di pacchetto, l'A.
appunto, per verificare la possibilità di mantenere in funzione una rete di elaboratori a livello nazionale in
caso di attacco nucleare. L'A. ha dato poi origine al complesso di reti e sottoreti da cui si è sviluppata per
integrazione Internet.
ASCII
(sigla di American Standard Code for Information Interchange). In informatica, codifica binaria a sette bit
usata per la trasmissione dati.
B
Back up
loc. inglese (da to back, appoggiare + up, su) usata in italiano come sm.
1) Nella tecnica, sistema di riserva il cui intervento è previsto in caso di guasto del sistema principale.
2) In informatica, duplicazione di sicurezza dei dati o dei programmi
Background
In informatica: a) modalità con cui il sistema esegue determinati comandi, mentre sono utilizzati altri
programmi; b) colore o immagini di sfondo del desktop, di un testo oppure di una pagina Web.
Backlog
In informatica, lista delle operazioni che devono essere eseguite dal computer.
Backslash
carattere ASCII, utilizzato nel sistema operativo MS-DOS per separare le varie parti che compongono il
nome di un file.
Backspace
pulsante della tastiera del computer, contrassegnato da una freccia rivolta verso sinistra che arretra di uno
spazio prima del cursore.
Backtracking
In informatica, tecnica di risoluzione di problemi consistente nel ritornare, ogni volta che una computazione
non può proseguire, alla situazione precedente e nel provare ad andare avanti compiendo una scelta
diversa.
Banner
In informatica, inserzione pubblicitaria utilizzata sulle pagine Web, costituita generalmente da uno striscione
“elettronico”, di formato rettangolare, contenente un'immagine o un'animazione, che funge da link al sito
dell'inserzionista.
Batch
In informatica, batch processing, elaborazione sequenziale di uno o più programmi considerati come un
insieme unico (batch). Elaborazioni batch vengono eseguite nei grandi e moderni sistemi in tempo reale e
time sharing nei momenti di disponibilità e permettono di conseguire l'impiego ottimale delle risorse operative
del sistema. Nei personal computer MS-DOS un file batch può contenere una serie di istruzioni simile a
quella che verrebbe introdotta manualmente dall'utente e permette di automatizzare alcune operazioni
ripetitive.
Biochip
ipotetico microcircuito integrato in cui, invece del tradizionale silicio, viene utilizzato materiale organico
costituito in particolare da proteine. Facendo assumere a molecole biologiche i compiti degli "interruttori"
elementari che stanno alla base degli elaboratori digitali, è possibile ottenere microchip ad altissima
integrazione utilizzabili per computer di nuova concezione che, emulando il funzionamento del cervello
umano, potranno raggiungere risultati come il riconoscimento del linguaggio naturale e delle immagini. Gli
specialisti di bioelettronica sono riusciti finora a realizzare diversi tipi di "biosensori", strutture ibride
composte da materiale organico ed elettronico, i cui campi di applicazione sono prevalentemente quelli della
diagnostica medica e dell'analisi ambientale. Con i biochip è possibile riconoscere l'origine delle specie
animali che compongono i prodotti alimentari o controllare le sementi e scoprire sequenze del DNA
provenienti da organismi geneticamente modificati.
BIOS
acronimo di Basic Input/Output System, l'insieme dei programmi di sistema che presiedono a tutte le
funzionalità essenziali di un elaboratore. Nei primi microelaboratori il BIOS occupava pochi Kbyte di una
comune memoria ROM , non modificabile, e conteneva le istruzioni di avvio della macchina e pochi
parametri fondamentali. Con l'evolversi dell'hardware e soprattutto per rispondere alla versalità delle
componenti hardware di un moderno microcomputer, il BIOS si è evoluto a vero e proprio sistema operativo
che gestisce, in modo autonomo, la gran parte delle funzionalità di I/O della macchina. Le versioni più
recenti del BIOS sono contenute in memorie riscrivibili di tipo Flash e raggiungono dimensioni dell'ordine del
Mbyte. La riscrivibilità delle memorie Flash permette di aggiornare il BIOS di una macchina, sia per eliminare
eventuali anomalie del software, sia per aggiungere la gestibilità di nuovi tipi di periferiche, senza che si
debba sostituire tutta la piastra madre.
B-ISDN
sigla per Broadband-Integrated Services Digital Network (rete numerica a larga banda integrata nei servizi).
Con B-ISDN si individua, nell'ambito delle attività internazionali di normalizzazione, una soluzione di rete che
consente l'integrazione di tutti i servizi attuali e futuri tramite l'adozione di tecnologie a larga banda. Dal
punto di vista architetturale, la B-ISDN costituisce una piattaforma di rete basata sull'utilizzo di tecnologie di
trasmissione e di commutazione che permettono di fornire le alte velocità richieste da applicazioni quali
l'interconnessione di LAN e workstation, l'accesso a supercalcolatori e in genere il trasferimento client/server
delle grandi quantità di dati necessarie per i servizi multimediali, l'elaborazione di immagini, la simulazione,
la progettazione, la visualizzazione e la televisione ad alta definizione.
Bit
s. ingl. usato in it. come sm. (abbreviazione di binary digit, cifra binaria). In informatica: A) è l'unità base di
informazione, la quantità di informazione necessaria per distinguere fra due eventi equiprobabili elementari;
in altri termini, l'informazione fornita in risposta a una domanda che ammette solo due possibilità: sì o no
(rappresentate da 0 e 1). B) Una posizione nel sistema di numerazione binaria che può assumere i simboli 0
o 1. I b. sono alla base della rappresentazione interna negli elaboratori digitali di numeri, caratteri alfabetici,
simboli e istruzioni. Il b. è l'unità più piccola di memoria. La capacità di un canale di trasmissione
dell'informazione si misura in b. al secondo (baud).
Booleano
agg. Che si riferisce al matematico inglese G. Boole: algebra b., reticolo b., v. algebra di Boole.
Operatore booleano
Ogni linguaggio contiene un insieme di caratteri speciali che, usati sui valori, riescono a modificarli, a
confrontarli, a usarli in operazioni aritmetiche e a combinarli. Gli operatori b., infatti, eseguono operazioni
logiche, formalizzando le relazioni di esclusione e inclusione nell'algebra b., e per questo motivo hanno
trovato larga applicazione in sistemi di elaborazione di ricerche per parole chiave, dette appunto ricerche b.,
come nei data base o nei motori di ricerca su Internet. I principali operatori b. sono AND, OR e NOT e le loro
funzioni variano a seconda della ricerca che si vuole effettuare: p. es. se si vogliono cercare informazioni
relative a “editoria italiana”, formulando la query con AND posto tra i due termini si troveranno documenti in
cui sono presenti entrambe le parole; allo stesso tempo, usando la funzione OR, i documenti restituiti
conterranno almeno uno dei due termini indicati o entrambi; digitando, invece, “editoria NOT italiana” si
otterrà in risposta l'elenco di tutte le risorse che si riferiscono solo alla parola editoria, ma non alla parola
italiana.
Browser
in informatica, in ambito Internet, programma che consente di navigare alla ricerca di qualcosa; in
particolare permette di richiedere, raggiungere e visualizzare il sistema di pagine e di collegamenti
ipertestuali del World Wide Web.
Buffer
in elettronica, circuito elettrico, detto anche separatore, usato per separare il circuito di comando dal circuito
di carico.
In informatica, dispositivo, detto anche memoria tampone, per la memorizzazione temporanea di dati nel
corso di operazioni di trasferimento o di trasmissione.
Bug
s. inglese (propr., cimice, piccolo insetto) usato in italiano come sm. In informatica errore di programma, a
volte anche derivante da guasto dell'elaboratore; di qui debugging, procedura di eliminazione dei bugs, ossia
di verifica e messa a punto, per conseguire la piena funzionalità di un programma. L'origine del termine è
storica: un insetto mise fuori servizio il primo calcolatore digitale di uso generale, l' ENIAC (1945).
Bus
in elettronica e in informatica, insieme di conduttori che collegano le varie parti di un microprocessore,
consentendo così il reciproco colloquio.
Byte
in informatica, gruppo di 8 bit considerato ed elaborato come unità e rappresentato con la lettera B. Multipli:
210 =1024 B corrispondono a 1 KB (kilobyte); 210 =1024 KB corrispondono a 1MB (megabyte); 210 =1024 MB
corrispondono a 1 GB (gigabyte). Approssimando si hanno le seguenti equivalenze: 103 B=1KB; 106
B=1MB;109 B=1GB.
C
Cablaggio
in elettrotecnica e in elettronica, l'insieme dei cavi elettrici e relativi accessori che costituiscono gli elementi di
collegamento di un circuito elettrico.
Cache
s. inglese (dal francese cacher, nascondere) usato in italiano come sf. In informatica indica una particolare
memoria che serve a velocizzare il reperimento di un'informazione. La cache può essere un chip hardware
oppure un'area di un disco rigido; viene riempita con gli ultimi dati in transito e permette di estrarli in modo
random a seguito di un'identica richiesta in tempo ravvicinato. Nei personal computer una memoria cache
hardware viene interposta tra il microprocessore e la memoria RAM. Per aumentare la probabilità di reperire
l'informazione richiesta direttamente all'interno della cache, si possono disporre più memorie in cascata e in
questo caso si parla di livelli della cache(primo, secondo, L1, L2, ecc.). I dati richiesti dal microprocessore
vengono prima cercati nella cachedi primo livello, che generalmente risiede nello stesso chip del
microprocessore, successivamente vengono cercati nella cachedi secondo livello e, solo in caso di esito
negativo, si deve accedere direttamente alla RAM. In generale la cachedi primo livello funziona alla stessa
velocità del microprocessore o a metà frequenza, mentre la cachedi secondo livello lavora alla velocità della
piastra madre o a una frequenza intermedia tra quella del processore e quella della RAM. Si utilizza invece
una cache su disco rigido quando i dati provengono da Internet o da una macchina remota. Le richieste di
accesso ai dati vengono confrontate con il contenuto della cache. sul disco locale; se il dato è presente si
verifica sulla macchina remota che non sia stato modificato nel frattempo e, se questo è vero, lo si preleva
dal disco senza doverlo nuovamente scaricare dalla rete.
CAD
(sigla dell'inglese Computer Aided Design). Tecniche di progettazione che si avvalgono dell'uso di
elaboratori elettronici. I programmi CAD consentono di rappresentare su computer un modello che descrive il
modello reale, di simularne il comportamento di verificarne i margini di funzionamento e di estrarne i criteri di
fattibilità. I programmi CAD sono particolarmente diffusi per la progettazione di pezzi meccanici in ditte
aeronautiche, automobilistiche ecc. Nell'integrazione con i sistemi CAM si parla di CAD/CAM.
CAM
(sigla dell'inglese Computer Aided Manufacturing). Tecniche di produzione che si avvalgono dell'uso di
elaboratori elettronici per gestire, controllare e comandare i mezzi di produzione. I sistemi CAM utilizzano
metodi derivati dalla ricerca operativa, dalla teoria dei sistemi, dalla teoria dei controlli, per automatizzare la
produzione industriale. I vantaggi maggiori si ottengono con l'integrazione con i sistemi CAD (CAD/CAM).
Cardare
s. ingl. usato in it. come sm. In informatica, termine che indica un programma in distribuzione gratuita per il
quale l'autore, o gli autori, gradirebbero come segno di approvazione da parte dell'utilizzatore l'invio di una
cartolina illustrata.
Case
Contenitore dell’unità centrale del computer, può essere: desktop, se sta appoggiato sulla scrivania e
sostiene il monitor, tower, minitower, miditower, se è verticale
CD-Rom
acronimo della denominazione inglese Compact Disc-Read Only Memory, disco compatto- memoria per
sola lettura; infatti, in questi dischi si possono soltanto leggere le informazioni memorizzate e non
memorizzarne altre. Il CD-ROM è un dispositivo che consente di archiviare grandi volumi di dati sfruttando
tecnologie di lettura ottica. Il principale vantaggio dei dispositivi ottici rispetto ai supporti magnetici, oltre la
capacità di memorizzare grandi quantità di informazioni in uno spazio ridotto (ossia una maggiore densità di
registrazione), è un minor pericolo di deterioramento delle informazioni memorizzate. Risultano, infatti, più
resistenti a colpi, attriti e problemi meccanici e non presentano il rischio di perdita delle informazioni a causa
di campi elettromagnetici esterni. Attualmente i CD-ROM sono il supporto ad alta densità di memoria più
economico; un CD-ROM di 12 cm di diametro contiene 600 Mb. La presenza di un adeguato software
consente un accesso molto rapido alle informazioni immagazzinate. Il CD-ROM costituisce un nuovo mezzo
di diffusione delle informazioni in concorrenza con la tradizionale carta stampata. Su CD-ROM sono state
digitalizzate grandi opere come enciclopedie e testi giuridici; alcune società hanno pubblicato i propri
cataloghi e documenti tecnici su di esso. Per un lungo periodo i CD-ROM hanno costituito il supporto ad alta
densità di memoria maggiormente economico e diffuso. Progressivamente però hanno perduto una parte di
mercato, conquistata dal più capiente DVD. Alla diffusione dei CD-ROM ha contribuito il fatto che dal 1998
tutti i personal computer venduti posseggano un lettore CD-ROM incorporato e la diffusione dei
masterizzatori che permettono di realizzare CD-ROM a bassissimo costo. Dal 2000 sono aumentati i
personal computer dotati di lettore DVD compatibile con i CD-ROM
CDV
sigla dall'inglese Compact Disc Video (video-disco compatto). Disponibile in diversi formati da 12, 20, e 30
cm, ha trovato diffusione limitata, nonostante l'ottima qualità video e l'assenza di usura, per la scarsa
disponibilità di titoli (film e generi musicali).
Cellulare
apparecchio telefonico che si avvale di un'infrastruttura di comunicazioni radio che consente la connessione
di un utente mobile con un altro utente mobile o con un utente della rete fissa. In una rete radiomobile
cellulare la copertura radioelettrica si ottiene suddividendo l'area di servizio in zone, chiamate celle, servite
da una stazione radio a cui il terminale mobile in transito si connette. Inizialmente, l'utilizzo dei sistemi
radiomobili era riservato ad applicazioni nell'ambito della navigazione, prima marittima e successivamente
aerea. Grazie ai progressi tecnologici e alla conseguente riduzione dei costi e delle dimensioni dei sistemi
ricetrasmittenti fu in seguito possibile utilizzare i collegamenti hertziani, cioè realizzati tramite onde radio,
anche nel campo delle comunicazioni personali terrestri. Nacque così negli anni Sessanta la prima
generazione di sistemi radiomobili di tipo automatico. Si trattava di sistemi caratterizzati dall'uso di celle di
copertura di grandi dimensioni (20/30 km di raggio), con un numero di canali a disposizione del servizio
alquanto limitato (da 20 a 40). L'utente in movimento che, durante la comunicazione, passava da una cella a
un'altra, sperimentava un progressivo degrado della comunicazione e il successivo abbattimento della
stessa. Peraltro, un utente mobile che desiderasse chiamarne un altro doveva indicarne all'operatore la
posizione e quindi la cella di temporanea appartenenza. Nella seconda metà degli anni Settanta, al
progressivo aumento della domanda di servizio corrispose un rinnovato impegno nella ricerca di soluzioni
tecnologiche che superassero le limitazioni dei sistemi di prima generazione. I sistemi di seconda
generazione, indicati comunemente in letteratura come “sistemi analogici cellulari”, superarono le limitazioni
che rendevano i sistemi precedenti assai poco funzionali, gestendo un numero molto più elevato di canali
radio (circa 200 per i sistemi operanti nella banda dei 450 MHz e oltre i 1000 per quelli nella banda dei 900
MHz) e celle di dimensioni più ridotte. Ma soprattutto i nuovi sistemi erano in grado di effettuare una
commutazione automatica del canale radio durante la conversazione (funzione hand off o hand over),
permettendo così all'utente di spostarsi da una cella all'altra senza interrompere la comunicazione. Inoltre, il
riconoscimento automatico e in tempo reale della posizione degli utenti (aggiornamento automatico della
localizzazione d'utente) rendeva possibile l'instradamento della comunicazione verso gli utenti mobili senza
che l'utente chiamante ne dovesse conoscere la posizione (funzione roaming). Per superare il problema
della diversità dei sistemi radiomobili adottati dalle diverse nazioni europee, nel 1982 la CEPT (Conférence
Éuropeenne des Postes et des Telecommunicationes, Comitato Europeo delle Poste e delle
Telecomunicazioni) istituì una commissione tecnica denominata GSM (Groupe Speciale Mobile, Gruppo
speciale mobile) con il compito di definire uno standard paneuropeo per le comunicazioni radiomobili
cellulari, che consentisse a un utente di usufruire del servizio utilizzando lo stesso terminale in una
qualunque delle nazioni aderenti all'iniziativa. Il risultato delle attività di standardizzazione iniziate nel 1982 fu
la definizione delle specifiche del sistema radiomobile cellulare a tecnologia digitale GSM (Global System for
Mobile Communication, Sistema globale per le comunicazioni mobili), oramai adottato anche da molte
nazioni extraeuropee. I sistemi di seconda generazione sono in funzione in molte nazioni, compresa l'Italia,
anche se l'evoluzione verso i sistemi digitali (GSM o altri) è particolarmente rapida. In Italia, il primo servizio
di telefonia radiomobile venne lanciato dalla SIP nella prima metà degli anni Settanta, con il nome di RTMI
(Radio telefono mobile integrato). Operante nella banda dei 160 MHz, utilizzava delle celle molto grandi
(oltre 20 km) e un numero esiguo di canali radio (32, dedicati alle maggiori aree urbane e alle principali
arterie di comunicazione), con una capacità di servizio di qualche migliaio di utenti. Il servizio era automatico
per le chiamate generate da terminale mobile, ma necessitava dell'intervento dell'operatore per le chiamate
verso terminale mobile, del quale l'utente chiamante doveva conoscere la posizione. Nel 1984, ormai
virtualmente satura la rete RTMI, entrò in funzione il sistema RTMS 450 (Radio Telephone Mobile System,
Sistema mobile di radio telefonia) che rimase attivo fino al 1996. Si trattava di un sistema analogico di
seconda generazione basato sulla tecnologia cellulare che permetteva all'utente di effettuare e ricevere
automaticamente chiamate senza l'intervento dell'operatore e di spostarsi da una cella a un'altra senza
essere soggetto all'abbattimento della conversazione. Il sistema operava nelle bande 450-455 MHz per la
comunicazione tra terminale e stazione radio e 460-465 MHz per la comunicazione in verso opposto; in ogni
banda erano allocati 200 canali radio. Il sistema RTMS 450 raggiunse a sua volta la saturazione e, in attesa
della rete GSM, si rese necessaria l'introduzione di una rete più evoluta in grado di soddisfare la sempre
crescente domanda sia di accessi sia di servizi. Nel 1990 fu resa operativa la rete RTMS 900, per la quale fu
scelto lo standard E-TACS, sperimentato con successo in Gran Bretagna e adottato tra gli altri anche da
Austria, Irlanda e Spagna. Furono introdotti dei terminali mobili di dimensioni ridotte che soppiantarono quelli
trasportabili e veicolari dei sistemi precedenti. In Italia il primo servizio GSM fu avviato da Telecom all'inizio
degli anni Novanta, ma il lancio commerciale del servizio avvenne nell'aprile del 1995 a opera di TIM
(Telecom Italia Mobile), nata l'anno precedente come gestore pubblico del servizio radiomobile. Nel 1993
venne emanato il bando di gara per l'assegnazione delle concessioni per un nuovo servizio digitale GSM, da
affiancare a quello fornito dal gestore pubblico. La gara fu vinta nel 1994 dalla società Omnitel Pronto Italia,
capeggiata dal gruppo Olivetti, che nell'ottobre 1995 diede l'avvio al proprio servizio sperimentale, aprendo la
fase commerciale a dicembre dello stesso anno, dopo aver raggiunto il 40% della copertura del territorio
nazionale. Nel corso degli anni Novanta, la telefonia mobile, nota anche come telefonia a mobilità di
terminale, in Italia superava i 20 milioni di abbonati: per le aree prive di infrastrutture di terra erano presenti
le celle satellitari con diametri superiori ai 500 km, seguivano le macrocelle per servizi di tipo rurale (diametri
fino a circa 30 km), le microcelle per aree urbane ad alta densità (qualche centinaio di metri), le picocelle per
servizi interni a edifici commerciali o industriali (qualche decina di metri). Nei sistemi radiomobili rientravano
sia i cordless (sistema domestico costituito, al limite, da una sola cella) e i sistemi cellulari, nei quali la
mobilità fra celle adiacenti era garantita, in tempo reale, dalla procedura del handover. Il roaming era la
procedura con cui era possibile utilizzare il servizio, anche fra reti servite da gestori differenti. La tendenza
era quella di sviluppare standard compatibili almeno a livello continentale, per permettere l'uso di terminali
capaci di operare con più sistemi, per esempio terminali dual-band, TACS e GSM, in modo che la scelta
della modalità operativa fosse controllata da software (software radio). Fra i sistemi cordless era stato
standardizzato il sistema DECT (Digital Enhanced Cordless Telecommunication), con lo scopo di permettere
l'impiego non solo nell'ambito di una abitazione, ma su un territorio di tipo urbano. Lo standard originale
GSM prevedeva l'uso delle gamme 890-915 MHz per la trasmissione da telefono cellulare e 935-960 MHz
per la ricezione, una evoluzione del sistema operava su frequenze più elevate, intorno ai 1800 MHz, usando
celle di dimensioni non superiori ai 10 km, sistema più adatto alle aree urbane. Per tale motivo avevano
successo, in zone a elevata densità di utenza, i terminali dual-band (900 e 1800 MHz). Il sistema a 1800
MHz veniva attivato in Italia nel marzo 1999. La tendenza, inoltre, a sviluppare sistemi di comunicazione
universale portava allo sviluppo del UMTS (Universal Mobile Telecommunication System). Tale sistema
permetteva l'accesso in rete in aree urbane e extraurbane e in tutto il mondo, attraverso terminali palmari
adattabili e riprogrammabili. Il sistema IMT-2000 (International Mobile Telephone-2000), invece, permetteva
il roaming fra diverse reti, fisse e mobili, con accesso a servizi multimediali, la navigazione su www (World
Wide Web) e l'accesso a data base. La trasmissione dei dati avveniva con uno standard superiore a quello
usato in trasmissione di sola fonia, che andava dai 144 kbit/s per spostamenti veloci ai 2 Mbit/s in ambienti
chiusi. L'uso di sistemi cellulari per trasmissione di dati a elevata capacità, inoltre, era legato anche a
probabilità di errore sul bit (BER) non superiore a 10-6 (per la voce i valori di BER erano 1000 volte
superiori).
Chat
s. inglese usato in italiano come sf. (propr. chiacchierata, ma anche sigla di Conversational Hypertext
Access Technology). Funzione che su BBS e su molti sistemi in linea offre la possibilità di conversare in
linea in tempo reale a due o più utenti collegati contemporaneamente. Su Internet, questa funzione è svolta
da IRC o da talk.
Chat line
loc. inglese usata in italiano come sf. (da chat, chiacchierata, e line, linea, in questo caso telefonica).
Sistema di comunicazione telefonica che consente agli utenti di collegare più di due apparecchi in un'unica
conversazione: da quando si è fatto installare la chat line, passa intere serate in discussioni con i suoi amici.
Chattare
v. intrans. (dall'inglese to chat, chiacchierare, conversare). Possibilità di scambiare in tempo reale messaggi
digitati sulle rispettive tastiere tra due o più persone collegate in rete; i messaggi digitati appaiono sullo
schermo degli interlocutori collegati qualche istante dopo. Questa attività in pratica equivale a una
conversazione telefonica.
Chip
Descrizione generale
s. inglese (pezzetto, scaglietta, piastrina) usato in italiano come sm. Termine usato per indicare una piastrina
di silicio (o altro materiale, come germanio o arseniuro di gallio) che contiene numerosi componenti
elettronici sia attivi (transistori, diodi, ecc.) che passivi (capacità, resistenze, connessioni, ecc.). La piastrina
tipica ha una superficie di alcune decine o centinaia di millimetri quadrati, spessore inferiore a due decimi di
millimetro e contiene un microcircuito digitale; i circuiti analogici, dato il tipo di prestazioni (per esempio alti
guadagni e quindi potenze crescenti verso gli ultimi stadi) e il minor grado di ripetibilità di insiemi circuitali, si
sono prestati meno alla realizzazione su chip, ma sono già apparsi filtri e amplificatori operazionali di questo
tipo. Il chip è l'espressione tangibile della microelettronica, tecnologia nata con la realizzazione del primo
circuito integrato (insieme di transistori e resistenze, 1958) e con la messa a punto della tecnologia planare
(1959). Quest'ultima è una tecnica complessa per la costruzione monolitica di circuiti con transistori e altri
componenti microelettronici. Su una sottile fettina di silicio (wafer) monocristallino del diametro di 25-50 mm,
tramite ripetute fasi fotolitografiche, chimico-fisiche, meccaniche e termiche si costruiscono topologie
circuitali prefissate. Queste vengono realizzate sulla piastrina con un procedimento fotolitografico che
impiega luce ultravioletta filtrata attraverso maschere per incidere il disegno del circuito sul piano in
lavorazione: il wafer viene preossidato superficialmente con ossido di silicio e ricoperto da un materiale
polimerico fotosensibile (photoresist); la fotolitografia con radiazione ultravioletta altera il photoresist; la
rimozione chimica selettiva del photoresist alterato e, di conseguenza, dell'ossido nelle zone non protette dal
photoresist, crea a sua volta, piano per piano, la topologia voluta. Alle fasi di fotolitografia si alternano fasi di
deposizione di strati di pochi micron di silicio monocristallino, fasi di lavorazione meccanica, di trattamento
chimico e di diffusione di droganti (elementi che aumentano la conduzione) per realizzare la struttura
elementare voluta (per esempio un transistore del tipo a giunzione) . Si allineano così in volumi ridottissimi
zone isolanti di ossido di silicio, zone semiconduttrici (di tipo p se il drogante è il boro o simili; di tipo n se è il
fosforo, ecc.) e zone di conduzione . La complessità del processo deriva, da un lato, dal numero di transistori
realizzati in un chip, che può superare il milione, e dalla contemporanea lavorazione di migliaia di chip sullo
stesso wafer ; dall'altro dalla precisione della lavorazione che è dell'ordine del micron e che richiede, per
ogni fase di mascheratura, allineamenti accuratissimi. Importanti anche le specifiche elettriche dei parametri
caratteristici dei transistori, dei resistori e degli altri componenti, mentre i limiti sulle loro variazioni sono
meno stringenti (dell'ordine del 20% con punte del 40%), dato che i circuiti logici dei sistemi digitali
richiedono solo la discriminazione a due (tre) stadi: vero/falso (indeterminato). Per la realizzazione dei chip si
sono messe a punto tecnologie che prevedono anche una "coltivazione" in laboratorio con lo stesso
procedimento che in natura viene messo in atto dalla conchiglia per produrre la madreperla. Il procedimento,
realizzato dall'Università del Texas di Austin, sfrutta la tendenza di proteine e cristalli ad aggregarsi in modo
spontaneo e ordinato, aprendo la via ad una diversa generazione di microchip superminiaturizzati e
costituendo un passo in avanti per l'integrazione di molecole organiche e inorganiche. I ricercatori hanno
realizzato circuiti integrati a partire da peptidi, i precursori delle proteine, e cristalli di silicio o di arsenuro di
gallio, i composti più comunemente usati nei microchip. La tecnologia utilizza la capacità dei peptidi di unirsi
saldamente ai cristalli catalizzando l'allineamento di più cristalli in una struttura continua, proprio come
succede nelle conchiglie dove, unendosi a un cristallo di carbonato o fosfato di calcio, le proteine inducono
lo sviluppo di colonne di cristalli, visibili a occhio nudo come le striature della madreperla. Per individuare le
molecole con cui lavorare, i ricercatori hanno selezionato centinaia di milioni di virus, ognuno dei quali
caratterizzato sulla membrana esterna da un diverso peptide che serve al microrganismo per attaccarsi alle
pareti delle cellule da infettare. Messo ciascuno di questi in un ambiente ricco di cristalli di materiali
semiconduttori, sono stati individuati i virus che si legano ai cristalli più saldamente. Il loro peptide è stato
quindi isolato e l'esperimento è stato ripetuto, constatando che anche il peptide da solo si univa saldamente
al cristallo e faceva da catalizzatore per la crescita di una struttura complessa con l'incolonnamento di altri
cristalli. Sono stati in tal modo ottenuti dei materiali "biocomposti", utili come basi per la costruzione di una
nuova generazione di complesse strutture elettroniche.
Cenni storici
I dispositivi su chip hanno subito una fortissima evoluzione con tappe scandite dall'ampiezza delle funzioni
svolte: a) l'integrazione su piccola scala (SSI, Small Scale Integration, 1962): il chip, costituito da poche
decine di transistori, realizza solo funzioni logiche elementari (AND, OR, ecc.); b) l'integrazione su media
scala (MSI, Medium Scale Integration, 1966): il dispositivo, composto da centinaia di transistori, realizza
unità logiche complesse come i registri e i contatori; c) l'integrazione su larga scala (LSI Large Scale
Integration, anni Settanta): il dispositivo, composto da decine di migliaia di transistori, realizza unità
funzionali complete come le memorie e i microprocessori (questi ultimi concepiti nella loro essenzialità; per
esempio con capacità di calcolo solo in virgola fissa, mentre quella in virgola mobile viene fornita su altro
chip progettato come coprocessore matematico); d) l'integrazione a grandissima scala (VLSI, Very Large
Scale Integration, anni Ottanta): il dispositivo, costituito anche da più di un milione di transistori, è, da solo,
un calcolatore assai potente dotato di memoria ad accesso molto rapido e di numerose funzioni prima
delegate a chip ausiliari del chip principale; e) l'integrazione a scala ultra (ULSI, Ultra large Scale Integration,
anni Novanta) che conta oltre 10.000.000 di transistor, collegati tra loro da fili spessi solo 0,18 micron, in
grado di elaborare miliardi di operazioni al secondo. Nel 1989 è stato progettato un chip di oltre un milione di
transistori della superficie di trecento millimetri quadrati circa che ha mostrato prestazioni simili a quelle dei
supercalcolatori: altissima velocità (40 MHz, ottanta milioni di operazioni al secondo in virgola mobile);
operazioni vettoriali; esecuzione parallela delle istruzioni; ampia memoria per dati e istruzioni; grafica
tridimensionale; architettura con bus a 64 bit; corredo di software (programmi di base) che include i
compilatori Fortran e C, nonché il vettorizzatore Fortran (programma che ristruttura il codice Fortran per il
calcolo vettoriale). Questo potenziamento del chip è stato primariamente ottenuto con una maggiore densità
di componenti; peraltro anche la dimensione del chip è aumentata nel tempo: da una dimensione
caratteristica utile di 1,4 mm (lato) nel 1960 si è passati agli 8 mm del 1980, ai 30-40 del 2000. Negli anni
Novanta, per aumentare la capacità di calcolo, si è agito sulle dimensioni geometriche degli elementi di base
dei circuiti integrati presenti sui chip e sul silicio e le sue connessioni. Sono stati creati chip che utilizzano
una particolare miscela di silicio e germanio in modo da renderli più veloci e ideali per operare nel campo
delle alte frequenze e nella trasmissione di voce e dati. Inoltre, usando la SOI (Silicon On Insulator), i chip
sono stati protetti con uno strato di isolante per ridurre gli effetti elettrici nocivi che diminuiscono le loro
prestazioni. La scoperta di questo filtro isolante ha poi permesso anche la connessione dei chip non più
attraverso fili di alluminio, ma con fili di rame, in precedenza tecnicamente difficili da integrare con il silicio.
Per il chip si sono aperti campi di applicazione di varia natura. I laboratori hanno sperimentando meccanismi
(accelerometri e altri sensori) e motori (del tipo a capacità variabile fra rotore e statore) della dimensione di
una frazione di millimetro; le applicazioni potenziali del chip riguardano anche l'automobile (sospensioni,
freni, sterzo), l'elettronica medica e il settore dei controlli di processo. § Dato il protratto successo economico
del chip, che ha inciso positivamente sull'andamento delle azioni delle imprese del settore, il termine è stato
adottato anche in campo finanziario con l'espressione blue chips.
Cibernetica
sf. [sec. XX; dal greco kybernētike (téchnē), (arte) del timoniere, sul modello dell'inglese cybernetics].
Scienza che studia la progettazione e la realizzazione di sistemi artificiali, senza necessariamente partire da
un sistema biologico esistente, avendo come massimo obiettivo la realizzazione di sistemi in grado di
autoprogrammarsi, cioè di proporsi autonomamente delle finalità.
Cenni storici: evoluzione
Sin dall'antichità si è tentato di costruire macchine che imitassero certi aspetti del comportamento umano,
come scrivere, suonare uno strumento, ecc. Nel campo dei regolatori automatici l'anno 1871 segnò una
tappa storica con l'apparizione del regolatore di Watt, la cui idea base si trova nel tardo Medioevo nella
regolazione automatica dei mulini a vento. Le prime idee veramente cibernetiche provengono, però, dalla
biologia, dove nelle idee di riflesso e di omeostasi è presente il concetto di retroazione. Nel 1930 L. von
Bertalanffy creò le basi della teoria generale dei sistemi che ricerca principi unificanti nello studio delle entità
complesse della biologia e della sociologia. Questa teoria non interessò però l'ingegneria sino al 1940
quando, due anni dopo la presentazione di una tesi di C. Shannon sull'applicazione dell'algebra di Boole ai
circuiti di commutazione, si incominciarono a progettare i primi elaboratori elettronici numerici. La teoria
generale dei sistemi fu allora applicata a queste macchine e a particolari automatismi usati nell'artiglieria
contraerea. Nello stesso anno R. Ashby costruì il primo dispositivo per realizzare fenomeni omeostatici:
l'omeostato. Nel 1943 W. S. McCulloch cominciò a definire modelli matematici per lo studio e l'imitazione del
cervello umano. Contemporaneamente, in embriologia, comparivano temi chiaramente cibernetici nello
studio delle cellule giganti e della riproduzione. La nascita della cibernetica nel senso precedentemente
definito si ascrive appunto agli anni immediatamente precedenti la II guerra mondiale, quando un gruppo di
scienziati, tra i quali N. Wiener, interessati alle discipline più diverse (matematica, statistica, ingegneria,
elettronica, neurofisiologia, ecc.) cominciarono a riunirsi sotto la direzione del neurologo messicano A.
Rosenbluth nella facoltà di medicina di Harvard per discutere i fondamenti del metodo scientifico in modo
completamente nuovo e generale, cercando di scoprire idee comuni a tutte le discipline scientifiche, per
poterne unificare i linguaggi. L'imminenza della guerra li portò a interessarsi ai due temi dell'automazione del
calcolo e della direzione del tiro dei pezzi contraerei. In relazione al primo di essi, Wiener pubblicò, nel 1940,
il risultato di uno studio sulle caratteristiche che avrebbe dovuto avere il futuro calcolatore automatico: esso
doveva essere numerico ed elettronico con circuiti bistabili, con capacità logica e con memoria. Le sue idee
rivoluzionarie si imposero e, già nel 1942, le università di Harvard, di Pennsylvania e di Princeton lavoravano
attivamente su di esse. Il secondo tema diede luogo a un altro passo rivoluzionario, segnando la nascita
della teoria della regolazione e del controllo; tuttavia la finalità di muovere con rapidità e precisione le torrette
dell'artiglieria antiaerea coinvolgeva un così gran numero di difficoltà (predizione delle traiettorie ottimali,
stabilizzazione rapida del cannone, ecc.) che per la sua soluzione fu necessario un enorme sforzo teorico. I
risultati, che comprendono la teoria dei servomeccanismi, furono pubblicati e applicati solo nel dopoguerra.
Le necessità belliche producevano così le prime “macchine intelligenti”. Due attività come il calcolo e la
previsione, prima dominio esclusivo degli esseri umani, passavano nell'ambito delle capacità delle macchine
segnando l'inizio, con l'avvio dell'automazione, di quella che è stata definita la “seconda rivoluzione
industriale”. L'unità essenziale dei due problemi, centrata sui fenomeni della comunicazione e del controllo,
comuni alle macchine e agli esseri viventi, venne rilevata da Wiener e Rosenbluth. Il termine cibernetica fu
da loro adottato con l'obiettivo di arrivare a nozioni generali sui meccanismi, sulla loro organizzazione e sul
loro controllo che potessero orientare su un'analisi più razionale delle funzioni degli esseri superiori e
arrivare così alla loro produzione artificiale mediante organizzazione di materia inanimata in modo da imitare
o simulare certi aspetti del comportamento degli esseri viventi, come la memoria e i riflessi condizionati.
Cenni storici: la cibernetica contemporanea
La cibernetica è una scienza interdisciplinare, cioè una scienza di collegamento tra varie discipline, quali
l'ingegneria, la biologia, la matematica, la logica, ecc., che studia il comportamento degli animali e di ogni
sistema paragonabile a un organismo vivente. Si occupa pertanto di organismi politici ed economici, di
gruppi sociali, di elaboratori elettronici, di cellule, ecc., prestando particolare attenzione alle modalità con cui
questi sistemi perseguono le proprie finalità e unificando la terminologia, e quindi la metodologia, delle
discipline che si occupano della comunicazione (raccolta e analisi di informazioni) e del controllo
(utilizzazione dell'informazione per regolare e comandare l'azione del sistema stesso). I metodi della
cibernetica si basano sull'analisi statistica dell'informazione, sull'osservazione del comportamento globale
dei sistemi complessi, sullo studio dell'organizzazione e interazione qualitativa dei diversi componenti e sulla
considerazione dell'aspetto funzionale di ciascun organo, senza entrare nei dettagli materiali della sua
costituzione. Al centro dell'interesse della cibernetica si trova il problema della finalità, in generale, e della
sopravvivenza, in particolare, cioè, con linguaggio proprio di questa disciplina, il mantenimento dell'identità
del sistema con la stabilizzazione della sua organizzazione, ottenuta mediante adeguati meccanismi di
regolazione basati essenzialmente sul principio della retroazione. La cibernetica compie questo studio
considerando i flussi di segnali che hanno luogo nel sistema e le elaborazioni funzionali cui vengono
sottoposti indipendentemente da qualsiasi considerazione energetica. Più concretamente, per conseguire i
propri fini, i sistemi studiati dalla cibernetica (siano animali, macchine o collettività) captano informazioni dal
mondo esterno e le codificano per facilitarne la trasmissione al proprio centro coordinatore che le interpreta
e, in funzione del contenuto, adotta le opportune decisioni, in generale scegliendo entro un insieme di molte
possibili la linea di azione ottimale, cioè quella che meglio si adatta al conseguimento dei propri fini.
Nell'ambito del campo di interesse della cibernetica si possono distinguere tre settori fondamentali: la
cibernetica teorica, la cibernetica sperimentale, l'ingegneria cibernetica. La prima comprende la teoria dei
sistemi che trasmettono ed elaborano informazioni e la teoria dei sistemi di controllo. La cibernetica
sperimentale si occupa dello studio e della costruzione di modelli cibernetici, nonché della sperimentazione
della teoria. L'ingegneria cibernetica si occupa della realizzazione di sistemi artificiali di alta complessità. In
questo ambito si può far rientrare anche la bionica. La caratteristica fondamentale della cibernetica è quella
di essere un modo di pensare, che emargina i concetti di energia, calore, rendimento, ecc. e centra tutto il
suo interesse sul comportamento. La sua metodologia si orienta principalmente verso la soluzione delle
seguenti tre grandi classi di problemi: analisi del sistema, del quale si distinguono le parti costitutive, il suo
assemblaggio, la sua struttura, in modo da poterne dedurre e spiegare il comportamento; sintesi del sistema,
per mezzo della quale si accoppiano i singoli costituenti in modo che il sistema globale soddisfi determinate
condizioni, e sia, per esempio, in grado di realizzare un determinato obiettivo; costruzione di modelli, dove
per modello si intende un sistema più semplice che funzioni in modo analogo o simile all'originale. Per la
costruzione di un modello ci si basa su due forme di similitudine: di comportamento, o funzionale, e di
struttura. L'obiettivo di costruire modelli secondo la prima forma è di imitare il comportamento dell'originale
senza riprodurne la struttura. I modelli cibernetici si specificano mediante un insieme di blocchi simbolici con
dettagli di entrate e uscite e con la rappresentazione del processo globale della trasformazione. La sua
materializzazione si realizza generalmente mediante tecniche che, basate sulla meccanica e sull'elettronica,
riproducono funzioni vitali senza entrare nei dettagli degli organismi. Questo, che a prima vista potrebbe
sembrare fantascientifico, non lo è in quanto, in ultima analisi, un organismo vivente non è altro che un
complesso di elementi più o meno semplici accoppiati in serie o in parallelo o con retroazione. § Le finalità
centrali della cibernetica di costruire una teoria generale delle macchine indipendentemente dalla loro
costituzione (elettronica, organica, micromeccanica) e di approfondire i campi della comunicazione e del
controllo nelle macchine e negli esseri viventi hanno dato luogo a discipline autonome e, principali fra
queste, l'ingegneria dei sistemi e l'intelligenza artificiale. Addirittura le discipline che si integrano nella
cibernetica ne hanno sostituito, nei relativi campi di applicazione, il termine, fatto che, se indica da un lato un
arretramento della visione di piena integrazione di scienze umane e fisiche di Wiener, rivela dall'altro il
maggior spessore che esse stanno individualmente acquistando. L'ingegneria dei sistemi studia la natura e
gli effetti delle interconnessioni fra “oggetti” e ha carattere spiccatamente interdisciplinare. Essa affronta
problemi che riguardano i requisiti e i vincoli che gli oggetti devono soddisfare perché il sistema funzioni.
L'ampia interdisciplinarietà dell'ingegneria dei sistemi si caratterizza inoltre per la considerazione di categorie
radicalmente diverse di sistemi, che possono essere: a) formali (per esempio matematici); b) naturali (i
processi fisici non vincolati artificialmente: un albero che cresce, un fiocco di neve che si forma, ecc.); c)
umani (un sistema sociale); d) formali-naturali (un processo tecnologico, ossia un fenomeno fisico vincolato
da un progetto realizzato: il motore a scoppio, la televisione, ecc.); e) formali-umani (una società integrata da
strutture politico-istituzionali come un'università, una nazione); f) formali-naturali-umani (un'impresa con uno
stabilimento che presiede a un processo tecnologico che è progettato e diretto da uomini). I progressi
dell'ingegneria dei sistemi si collocano prevalentemente nell'area formale-naturale e sono essenzialmente
derivati dall'elettronica che, per esempio, ha reso necessari progressi decisivi nella branca dell'affidabilità dei
sistemi, senza i quali non sarebbero stati possibili microcircuiti funzionanti con milioni di componenti; un altro
esempio è dato dalle telecomunicazioni in rapporto alla teoria delle code, insostituibile per la comprensione
delle reti telematiche a commutazione di pacchetto. I progressi nell'intelligenza artificiale sono di dominio
pubblico grazie al calcolatore nel suo ruolo di giocatore di scacchi di media-alta abilità. Meno noto è il fatto
che il calcolatore svolge compiti con contenuti “intellettivi” nel campo del calcolo integrale. I circuiti neuronali
hanno aperto, con la rètina al silicio, prospettive concrete nella visione artificiale. Infine i sistemi esperti
impiegano meccanismi inferenziali, ossia basati su schemi induttivi oltre che deduttivi, capaci, per esempio,
di diagnosi delle malattie infettive, delle malattie polmonari e di medicina interna.
Informatica: teoria degli automi
Un automa cellulare è un modello matematico costituito da un grande numero di elementi identici tra loro,
ciascuno dei quali si evolve nel tempo secondo un insieme di regole semplici. L'automa cellulare,
considerato come l'insieme completo dei suoi elementi, può essere usato per simulare fenomeni fisici e può
dare luogo a comportamenti caratterizzati da un alto grado di complessità. L'automa cellulare è quindi un
modello matematico adatto allo studio dei sistemi complessi. Il concetto di automa cellulare, introdotto
originariamente dal matematico Stanislaw Ulam, è stato formalizzato, nel 1947, dal fisico John von
Neumann, il pioniere del calcolo numerico. Nell'ambito dello studio dei meccanismi di autoriproduzione di
esseri viventi e, in generale, della complessità dei fenomeni biologici, von Neumann focalizzò la sua
attenzione sui principi logici che governano la capacità del sistema di autoriprodursi, tralasciando il dettaglio
chimico-fisico del processo stesso. Egli decise di descrivere il sistema "essere vivente" come costituito da
molte entità elementari (automi) definite su un dominio spaziale regolare (per esempio, in una dimensione,
su punti equidistanti disposti su una retta, oppure, in due dimensioni, sulle celle di un reticolo regolare di
quadrati o di esagoni, da cui il nome di automa cellulare). In questo contesto, la definizione di elementare si
riferisce alla possibilità di descrivere l'entità con una quantità di informazione molto ridotta, al limite con una
variabile che possa assumere solamente due valori, cioè con un singolo bit (per esempio, acceso/spento
oppure 1/0). Il requisito fondamentale perché l'insieme di entità elementari possa sviluppare un
comportamento complesso è che le entità stesse interagiscano tra di loro in maniera opportuna, cioè che la
loro evoluzione temporale (definita per intervalli temporali discreti) dipenda dallo stato delle altre entità
costituenti il sistema. Lo stato globale del sistema a un certo istante t può essere descritto da una matrice A i
cui elementi A(i,t) rappresentano lo stato dell'automa che si trova nella cella i-esima. La regola di evoluzione
temporale del singolo automa può essere rappresentata nella seguente maniera:
A(i,t+1)=F(A(i-d,t),...A(i+d,t))
dove F rappresenta la regola di evoluzione temporale, e dove è stato indicato esplicitamente che lo stato
dell'automa che si trova nella cella i-esima al tempo t+1 dipende dallo stato degli automi che si trovano nelle
celle vicine (a una distanza ±d) i-d, i-d+1,..., i+d-1, i+d, al tempo t. È stato dimostrato che molti tipi di automi
cellulari possono essere qualificati come macchine universali di Turing, cioè macchine che possono risolvere
i cosiddetti problemi computabili, quei problemi la cui soluzione può essere ottenuta in un tempo finito e
impiegando una serie di regole logiche ben precise. Un esempio di automa cellulare di questo tipo divenuto
molto conosciuto è "Il gioco della vita" (Life), proposto dal matematico inglese John Horton Conway nel
1970. Il dominio su cui sono definite le entità elementari è composto da celle quadrate, ognuna delle quali
può essere piena o vuota (viva o morta). A ogni avanzamento discreto del tempo, la nuova generazione è
ottenuta applicando le seguenti regole: a) se una cella è vuota, essa diventa piena se tre dei suoi vicini sono
pieni; b) se una cella è piena essa continua a vivere solo se ha due o tre vicini pieni (se ha meno di due
vicini vivi, possiamo pensare che muoia di "solitudine", viceversa se ha più di tre vicini vivi, possiamo
pensare che muoia per sovraffollamento). Nell'applicare queste regole, vanno considerate come vicine
anche le celle sulle diagonali. Il dominio, inoltre, va considerato periodico, cioè il bordo destro va considerato
unito con quello sinistro e il bordo superiore con quello inferiore. A seconda di come il sistema venga
inizializzato, utilizzando queste regole evolutive si possono ottenere figure periodiche oppure, dopo un certo
numero di passi temporali, figure statiche. Life è al confine tra ordine e caos, nel senso che ogni variazione
delle regole o della configurazione iniziale può condurre a un dominio statico oppure a uno caotico, dove non
si riesce a riconoscere alcuna struttura o figura regolare. È interessante notare che le regole di evoluzione
temporale sono regole non lineari, e che coinvolgono solo le celle immediatamente adiacenti all'automa
considerato: l'interazione tra automi viene in questo caso definita locale. È stato dimostrato da Conway che,
usando sequenze di particolari figure per rappresentare i bit, Life può riprodurre l'equivalente di operatori
logici AND, OR e NOT, e anche l'analogo di una memoria interna di computer (dimostrando, quindi, che Life
è una macchina universale). È utile notare che un'altra caratteristica degli automi cellulari è quella di essere
un modello matematico particolarmente adatto a essere implementato su elaboratori elettronici. Infatti,
mentre l'implementazione di un algoritmo per la risoluzione di equazioni differenziali su calcolatore utilizza
necessariamente numeri reali, la cui rappresentazione è per loro natura necessariamente approssimata da
un numero di bit finito (e, quindi, il calcolo con essi effettuato è, inevitabilmente, esso stesso approssimato),
un algoritmo basato su automi cellulari, lavorando su variabili rappresentabili da pochi (o al limite da un solo)
bit, può effettuare un calcolo esatto. È bene però notare che l'informazione contenuta in una variabile
rappresentata da un numero reale è, in senso lato, assai maggiore di quella contenuta in una variabile
rappresentata da pochi bit. Ci si può, quindi, aspettare che un problema fisico rappresentato da un automa
cellulare richiederà, tipicamente, per la sua risoluzione un grande numero di operazioni semplici, a differenza
delle (relativamente) poche operazioni complicate necessarie a risolvere lo stesso problema descritto da
equazioni differenziali. Tali peculiarità rendono gli automi cellulari particolarmente adatti alla
implementazione su calcolatori paralleli, cioè su calcolatori costituiti da un grande numero di unità di
elaborazione (anche semplici, capaci, cioè, di fare efficientemente solo poche operazioni). Sono state, anzi,
progettate e costruite macchine calcolatrici specializzate nel calcolo automico, in cui ogni unità di
elaborazione rappresenta la singola entità costituente l'automa cellulare, e connessa (cioè capace di
scambiare informazione) solo con le altre celle da cui l'evoluzione dipende (le celle vicine). Gli automi
cellulari possono essere utilizzati come modelli espliciti per un'ampia categoria di fenomeni fisici,
tradizionalmente descritti da equazioni differenziali. Tra questi vi sono la chimica e la biologia, ma il campo in
cui hanno avuto indubbiamente più successo è quello della turbolenza nei fluidi. La dinamica dei fluidi è
tradizionalmente descritta dalle equazioni di Navier-Stokes. Esse sono delle equazioni differenziali alle
derivate parziali che discendono dalla conservazione della massa e dell'impulso del fluido, in cui vengono
tenuti in conto anche gli effetti dissipativi (viscosità) caratteristici di un fluido reale. Il rapporto tra i termini
(non lineari) di convezione e i termini (lineari) di dissipazione viscosa che compaiono nelle equazioni di
Navier-Stokes è noto come numero di Reynolds Re (Re=VL/ν, con L e V la scala di lunghezza e la velocità
caratteristiche, e ν il coefficiente di viscosità): un fluido caratterizzato da un basso valore del numero di
Reynolds esibisce un moto ordinato (regime laminare), mentre un fluido caratterizzato da un alto valore del
numero di Reynolds esibisce un moto turbolento. Le equazioni di Navier-Stokes richiedono in genere una
soluzione numerica, anche perché spesso la geometria del sistema fisico che si vuole studiare può essere
assai complicata (si pensi, per esempio, al flusso di aria intorno alle ali di un aereo). Ma la soluzione diretta
delle equazioni di Navier-Stokes, in particolare per alti numeri di Reynolds, è uno dei problemi più difficili del
calcolo numerico. Sono stati di recente ideati degli automi cellulari in grado di riprodurre la fenomenologia di
fluidi turbolenti. Il nome dato a questa classe di automi cellulari è quello di gas reticolari. Il primo esempio di
automa cellulare per lo studio della fluidodinamica è l'automa HPP, dalle iniziali dei nomi dei tre ricercatori
che lo hanno ideato (Hardy, Pomeau e de Pazzis). Su una griglia quadrata, in cui ogni nodo è collegato ai
quattro suoi vicini, si distribuisce da un minimo di zero fino a un massimo di quattro particelle automiche,
ognuna delle quali è vincolata a muoversi lungo una delle direzioni del reticolo. Le particelle si possono
considerare come appartenenti a quattro famiglie, identificate dalla direzione in cui si possono muovere
(nord, sud, est, ovest). Tutte le particelle hanno massa e velocità unitaria, ovvero nell'unità di tempo discreta
possono raggiungere solo uno dei siti adiacenti. Lo stato del sistema di particelle su ciascun nodo è descritto
da un singolo bit (presenza/assenza (1/0) della particella). Dato che ciascun nodo può avere fino a quattro
particelle, il numero totale di combinazioni possibili su ciascun nodo è 2 4=16. L'automa cellulare nel suo
complesso viene caratterizzato da un insieme di 4N2 bit, con N2 il numero di nodi del reticolo. Le regole di
evoluzione del fluido automico possono essere divise in due fasi: quella di propagazione libera, in cui le
particelle si spostano liberamente nella direzione che a ognuna di loro compete, e quella di collisione, in cui,
raggiunto il nuovo sito, le particelle devono simulare lo scambio di impulso e di energia di un fluido reale. Le
regole relative alla fase di collisione sono scelte imponendo, per ogni sito, la conservazione del numero di
particelle e della corrente (definita come il prodotto della velocità per la densità di particelle) nelle direzioni
congiungenti i siti. Le uniche collisioni che rispettano tutti questi vincoli sono quelle tra particelle che si
muovono in direzione nord-sud e che, a causa dell'urto, si trasformano in particelle che si muovono in
direzione est-ovest, e viceversa. Tutte le fasi di evoluzione delle particelle automiche possono essere
rappresentate da operatori logici. Per completare la simulazione di un fluido reale per mezzo di un automa
cellulare (e quindi ottenere informazioni su quantità macroscopiche quali, per esempio, temperatura e
pressione), si richiede che siano effettuate medie sui valori di un grande numero di cellule, in maniera da
rendere trascurabili le fluttuazioni statistiche. L'automa HPP ha dimostrato di poter simulare diversi
comportamenti di un fluido reale, quali, per esempio, la propagazione di onde sonore, ma fallisce nel
rappresentare fenomenologie più complicate, tipiche della transizione a regimi turbolenti. La ragione di tale
fallimento è stata individuata nella insufficiente simmetria del dominio considerato (celle quadrate), e quindi
nella impossibilità di soddisfare la conservazione di alcune quantità fisiche (in particolare, la ridotta simmetria
del dominio rispetto a rotazioni impedisce la conservazione dell'impulso angolare). Oltre a non conservare
correttamente alcune quantità fisiche, il reticolo HPP introduce un numero elevato (2N, essendo N il numero
di righe o colonne del reticolo) di quantità conservate che non hanno una controparte in un fluido reale, e
che sono chiamate "invarianti spurie". Esse sono la quantità di moto orizzontale su ciascuna riga, e quella
verticale su ciascuna colonna. La descrizione del moto del fluido risulta così troppo "vincolata", e quindi è
comprensibile l'incapacità di descrivere moti vorticosi in cui la quantità di moto si deve invece distribuire in
modo efficiente. La scelta di un reticolo a simmetria esagonale (invece che quadrata), e il conseguente
aumento dell'isotropia spaziale, si è dimostrato sufficiente a rappresentare la fenomenologia assai più
complessa dei fluidi turbolenti. L'automa cellulare su reticolo esagonale prende il nome di automa FHP (dal
nome dei loro proponenti Frisch, Hasslacher e Pomeau). Le regole di evoluzione delle particelle automiche
sono analoghe a quelle dell'automa HPP, con ora 26=64 configurazioni possibili per nodo, e un numero di
collisioni assai più elevato rispetto al caso HPP. Questa semplice estensione del modello ha permesso di
ottenere dei risultati notevoli, permettendo di studiare con successo la dinamica della turbolenza di fluidi in
domini bidimensionali caratterizzati da numeri di Reynolds moderatamente elevati. Lo studio di fluidi in
domini tridimensionali per mezzo di automi cellulari richiede il passaggio attraverso reticoli in quattro
dimensioni, e presenta difficoltà computazionali notevoli: il numero di configurazioni possibili per nodo
diventa in questo caso 224=16777216 (cioè oltre 16 milioni) e la quantità di calcolo da effettuare e la memoria
richiesta per immagazzinare tali informazioni sono assai più elevate rispetto al caso bidimensionale. Uno
sviluppo recente delle teorie del gas reticolare è quello noto sotto il nome di equazione di Boltzmann su
reticolo, in cui il fluido automico viene utilizzato per simulare direttamente l'equazione di Boltzmann, che
descrive l'evoluzione della funzione di distribuzione delle particelle costituenti il fluido stesso. La funzione di
distribuzione rappresenta la probabilità che a un certo istante di tempo, su un certo nodo del reticolo, vi sia
una particella con velocità diretta in una data direzione: è quindi una quantità che può assumere, per sua
natura, valori continui, non rappresentabili quindi con quantità discrete, bensì da numeri reali. Gli automi di
questo tipo sono dunque automi ibridi, i cui stati non sono più descritti da pochi bit, anche se le regole di
collisione sono del tutto analoghe a quelle degli automi HPP e FHP. La rinuncia alla esattezza del calcolo,
dovuta alla non rappresentabilità delle grandezze caratteristiche dell'automa con un singolo bit, è
compensata dal vantaggio di simulare direttamente il valore della funzione di distribuzione, e quindi dalla
possibilità di evitare medie statistiche sullo stato di molte cellule.
Cisco System
società statunitense fornitrice di routers, fondata nel 1984 a San Josè, nella Silicon Valley, da un gruppo di
ricercatori della Standford University. La C. produce componenti essenziali per il funzionamento di Internet,
prodotti hardware e software, utilizzati per creare infrastrutture di rete che consentono agli utenti accessi
veloci alle informazioni, indipendentemente dalla loro collocazione geografica e dal tipo di sistema usato. È
stata inoltre una delle prime società a sperimentare il commercio elettronico: la maggioranza delle sue
vendite avviene infatti attraverso il suo sito Internet.
Client
s. ingl. usato in it. come sm. (propr. cliente). In informatica, componente software del modello di architettura
c.-server impiegato per contattare e ottenere dati da un programma server residente su un elaboratore
remoto. Il programma c., installato su un personal computer, gli permette di trasferire dati dai server della
rete informatica a se stesso.
Client server
s. ingl. (client, cliente + server, servitore) usato in it. come sm. In informatica, modello di architettura che
prevede per ogni utente di una rete di elaboratori la disponibilità di un programma client capace di metterlo in
relazione con un programma server residente in un elaboratore remoto; il server contattato fornisce le
indicazioni richieste al client che le trasferisce sulla macchina su cui è installato, a disposizione dell'utente.
Tutti gli strumenti di Internet destinati alla ricerca si servono di questo modello.
Clock
s. ingl. (orologio), propriamente sincronizzatore, temporizzatore. Il c. è un dispositivo, un oscillatore stabile,
che genera una serie di impulsi elettrici la cui frequenza è fissa e controllata con precisione molto elevata. Il
dispositivo effettua transizioni fra due stati caratterizzati da due diversi livelli di tensione e da due periodi
caratteristici di permanenza in ciascuno stato. Spesso i due periodi sono uguali e quindi la durata
dell'impulso è la metà del periodo di ripetizione dell'impulso stesso. Il dispositivo è impiegato per avviare le
azioni di un circuito logico e per sincronizzare i diversi circuiti di un'apparecchiatura quale un elaboratore
elettronico, che è una macchina sincrona scandita dal clock. In quest'ultimo caso la frequenza del c. (oggi
dell'ordine dei milioni e decine di milioni di hertz) controlla le parti più veloci, mentre i componenti più lenti
sono controllati da sottomultipli della frequenza di base.
COBOL
sigla dell'ingl. Common Business Oriented Language. In informatica, linguaggio specifico con il quale è
possibile descrivere in forma normalizzata procedure di elaborazione orientate alla risoluzione di problemi
commerciali. Il C. è strutturato sulla base della lingua inglese sia per quanto riguarda la logica, sia per il
simbolismo che impiega. A un sistema di elaborazione dotato di compilatore possono essere sottoposti
programmi redatti in C. e il compilatore li traspone in moduli di linguaggio macchina eseguibili dal sistema
stesso o da sistemi compatibili. Essendo il C. costituito da frasi normalizzate, oltre che come linguaggio di
programmazione si usa come mezzo di comunicazione.
Codice binario
Insieme di regole che consentono di convertire qualsiasi messaggio in un alfabeto composto da due soli
simboli: 0 e 1, detti bit (dall'inglese BInary digiT, cifra binaria). Il codice binario è particolarmente importante
in informatica dove la rappresentazione dei dati all'interno di un computer attraverso i due soli stati 0 e 1 può
corrispondere alla presenza o all'assenza di un segnale (passaggio o meno di una corrente, direzione di
magnetizzazione di un'area di supporto magnetico, presenza o meno di una carica elettrica in un
condensatore). Poiché è poco pratico lavorare con i singoli bit (un numero come 345, di tre sole cifre nel
sistema decimale, diviene 101011001 nel codice binario, cioè risulta composto da 9 bit), li si riunisce in
gruppi di quattro (nibble) oppure di 8 (byte).
Conversione di un numero binario in numero decimale. Poiché fa uso di due soli simboli per rappresentare
l'informazione, il codice binario si dice in base 2. A ogni posizione nel numero binario corrisponde una
potenza di 2 (la successione crescente di potenze va da destra a sinistra). Sommando i valori che si
ottengono moltiplicando il valore della cifra binaria per il valore della potenza di 2, si ottiene il
corrispondente valore decimale. Per es., considerando il numero binario
1 0 0 1 0 1 1a ogni posizione corrispondono le seguenti potenze
di 2
26 25 24 23 22 21 20che equivalgono a
64 32 16 8 4 2 1Il numero decimale si ottiene moltiplicando i bit per le potenze di 2 corrispondenti
1 ¥ 64 + 0 ¥ 32 + 0 ¥ 16 + 1 ¥ 8 + 0 ¥ 4 + 1 ¥ 2 + 1 ¥ 1 = 75
Codificatore
sm. e agg. (f. -trice) [sec. XIX; da codificare]. 1) Chi codifica; raccoglitore o compilatore di norme.
2) Dispositivo per la trasposizione in codice di dati introdotti in linguaggio riconoscibile; in partic., nei sistemi
di elaborazione elettronica, sono presenti c. che trasformano simboli alfabetici e numerici in simboli del
codice binario; nelle telecomunicazioni servono per l'emissione di informazioni codificate.
Codificazione
1) Nelle telecomunicazioni, emissione di informazioni, mediante impiego di adatto codice, realizzata a mezzo
di appositi apparati detti codificatori.
2) Nei sistemi di elaborazione: A) traduzione di un programma per la soluzione di un problema, in una
sequenza d'istruzioni in linguaggio accettabile dall'elaboratore. B) Sistema atto a individuare, in modo certo e
inequivocabile, per mezzo di un insieme di più cifre costituenti un numero (codice numerico) o cifre e lettere
(codice alfanumerico) prodotti, persone, o qualsiasi altro raggruppamento più o meno omogeneo. I numeri e
le lettere del codice vengono scelti in modo da rappresentare quelle caratteristiche del soggetto codificato
che potranno essere oggetto di successive elaborazioni: p. es., età, sesso, luogo di nascita e residenza per
le persone; lingua, editore e titolo per un libro. Esempi di c. numerica sono il codice di avviamento postale e
il codice a barre, che individua molti prodotti industriali; il codice fiscale è invece di tipo alfanumerico. La c.
consente l'elaborazione automatica, per mezzo del calcolatore elettronico, di quei dati, relativi alle persone o
ai prodotti codificati, che sono contenuti nel numero di codice.
COMIT
in informatica, programma compilatore scritto presso il MIT (Massachusetts Institute of Technology) per
l'elaborazione elettronica di dati non numerici. Concepito per lo studio dei problemi della traduzione
automatica, è utilizzato particolarmente nella ricerca di informazioni su schedari e negli studi filologici.
Compact Disc
loc. inglese (disco compatto), comunemente usata nella forma abbreviata CD (o C.D.). Supporto fisico di
registrazione e di riproduzione della musica che ha rivoluzionato l'alta fedeltà negli anni Ottanta del
Novecento. È infatti con il lettore per compact disc (compact disc player), uscito per la prima volta dai
laboratori Philips nel 1980, che questo supporto ha spiazzato il microsolco a 33 giri (Long playing o Lp). Il
compact disc per riproduzione musicale ha un diametro di 120 mm, uno spessore di 1,2 mm e una durata
massima di 75 minuti di ascolto. Le informazioni musicali, digitalizzate tramite un sistema analogico/digitale
che campiona il segnale elettronico istantaneo “del suono” (a una frequenza doppia, quadrupla e anche
ottupla della massima frequenza sonora) e lo trasforma in sequenze di bit, ossia serie di “uno” e “zero”, sono
contenute in microscopiche buche (pits), la cui presenza (o assenza) determina il modo con cui la luce laser
viene riflessa. Dato che il fascio laser ha una lunghezza d'onda di 0,5 micron e un diametro di 1,2 micron, la
buca standard (0,5×0,9 micron e profondità di un quarto di lunghezza d'onda) fornisce la risoluzione
necessaria. Partendo da queste dimensioni di base, la traccia elicoidale, simile a quella degli Lp, può essere
estremamente fitta dato che il suo spessore è attorno agli 1,6 micron (rispetto ai 100 circa di un Lp). La
capacità di accumulo di un compact disc è quindi nell'ordine di 500 milioni di byte (4 miliardi di bit). La sua
realizzazione è un processo tecnologico piuttosto complesso e di alta precisione: un disco di vetro (glass
master) viene ricoperto con una speciale vernice (photoresistor) e viene successivamente inciso con un
laser (della potenza di 20 mW) comandato dalle sequenze di zero e di uno. L'incisione viene resa
permanente con un processo di sviluppo e argentatura. Dal master vengono poi derivati gli stampi secondo
una procedura di filiazione simile a quella degli Lp. Si passa infine alla fabbricazione di massa dei compact
disc, che vengono stampati, ricoperti con una superficie riflettente, dotati di uno strato protettivo, forati,
etichettati e confezionati. In fase di riproduzione un altro laser di potenza assai inferiore (circa 2 mW) legge i
segnali incisi dal primo, ovvero le sequenze di zero e uno, e un convertitore digitale-analogico ricostruisce
fedelmente il segnale analogico che ricalca la musica. È questo segnale che entra nell'amplificatore
tradizionale dell'hi-fi. Il vantaggio principale dei compact disc è la notevole diminuzione del rumore di fondo
causato dalla puntina sul disco, dai graffi e dalla polvere. L'assenza di contatto meccanico fra il lettore e il
compact disc garantisce inoltre l'eliminazione dell'usura e la conservazione dell'informazione per lunghi
periodi. Le prestazioni potenzialmente superiori di questo supporto derivano anche da altri fattori e
principalmente dai progressi della microelettronica: per esempio, un microprocessore consente di focalizzare
esattamente il raggio laser sulle tracce e sulle microscopiche buche, tecniche specifiche eliminano gli errori
di lettura, le ondulazioni e le eccentricità che si ripresentano a ogni giro vengono compensate con
servosistemi elaborati. Viene consentita, senza pericolo di danneggiamenti, l'operazione di passare da un
brano all'altro della registrazione, nonché la ricerca rapida del frammento di registrazione che si intende
ascoltare, grazie alla presenza di una serie di dati informativi premessi, all'atto della registrazione, a ogni
brano, e ad appositi comandi di cui è dotato il lettore di compact disc. Il compact disc, sviluppato
essenzialmente per l'hi-fi, ha diverse altre applicazioni dati i vantaggi del sistema ottico/digitale come metodo
di registrazione di grandi quantità di dati (economie nella programmazione di software e nella meccanica
della lettura, tempi di accesso brevissimi, durata e sicurezza del supporto), come il compact disc per
riproduzione video (CDV, Compact Disc Video, videodisco compatto) che, disponibile in diversi formati da
12, 20 e 30 cm, ha trovato poca diffusione per la limitata disponibilità di titoli, nonostante l'ottima qualità
video e l'assenza di usura, quello con memoria a sola lettura (CD-ROM), e quello interattivo (CD-I, Compact
Disc-Interactive), che offre la possibilità di utilizzare software interattivo, grazie al quale lo spettatore non è
più solo un soggetto passivo, ma può essere parte attiva nello svolgimento del programma per l'esistenza di
un duplice canale di comunicazione: dal mezzo all'utilizzatore e dall'utilizzatore al mezzo; come interfacce
possono essere utilizzate la tastiera, lo schermo sensibile al tatto (touch sensitive screen o, semplicemente,
touch screen), il mouse, la penna luminosa (light pen) e il joystick. Sono state digitalizzate sui CD-RO. grandi
opere come enciclopedie e testi giuridici. Tuttavia, pur essendo stato lanciato agli inizi degli anni Ottanta, CD
è considerato un prodotto superato, destinato a essere soppiantato da un nuovo supporto di grande
versatilità, compatibile con i sistemi in uso, capace di contenere un maggior numero di informazioni,
riscrivibile e non duplicabile, il DVD (Digital Versatile Disc). Questo supporto multimediale è destinato inoltre
a sostituire la videocassetta e, in seguito, gli altri tipi di dispositivi asportabili per la registrazione di dati, dai
floppy disc ai vari modelli di cartucce a nastro magnetico. Il compact disc tradizionale, comunque, potrà
continuare a essere utilizzato perché i nuovi lettori digitali saranno progettati in modo da mantenere la
capacità di leggerlo. Il suo successo ha avuto come naturale seguito l'introduzione del CD-ROM, seguita da
quella del CD-R (Recordable), registrabile senza le costose attrezzature richieste da un compact disc
tradizionale, e del CD-E (Erasable), registrabile più volte.
Computer
Definizione
s. inglese usato in italiano come sm. Termine molto usato in campo internazionale per elaboratore
elettronico. Il computer è una macchina programmabile volta a consentire l'elaborazione di informazioni di
svariata natura come testi, numeri, immagini, suoni e (in forma sperimentale) odori. Il modello più diffuso è
quello classico della macchina di Von Neumann e la tecnologia prevalente è l'elettronica. Tale modello
prevede la presenza di un processore, di una memoria primaria, di una memoria secondaria, di dispositivi di
input-output e di un bus di sistema deputato a collegare tutte queste unità.
Processore
Il processore o CPU (Central Processing Unit) è il cuore del computer, l'unità preposta all'elaborazione vera
e propria, in grado di eseguire semplici operazioni quali addizioni, moltiplicazioni e confronto di numeri. La
CPU esegue tali operazioni in sequenza sulla base delle istruzioni contenute nei programmi. I programmi
sono per l'appunto sequenze di istruzioni, eseguibili da un processore, e risiedono nella memoria primaria (o
principale). La CPU si compone di diverse parti. Un importante componente di un processore è il clock.
Questo è una sorta di contatore (una sua singola fase è detta ciclo), che scandisce la velocità con cui le
istruzioni vengono eseguite dal processore stesso. Alcune istruzioni richiedono un singolo ciclo per essere
eseguite, mentre altre, più complesse, possono richiederne diversi. Nei processori più innovativi possono
essere eseguite più istruzioni in un singolo ciclo di clock. La frequenza del clock di un processore è uno degli
indici della sua velocità e funzionalità. Se di uno stesso processore esistono diverse versioni con velocità di
clock diverse, quella con velocità più alta sarà generalmente la più efficiente (ma anche la più costosa). Per
modelli di processore diversi questo tipo di confronto non è sempre significativo. Negli ultimi anni del
Novecento si è assistito a un vero boom nell'incremento del clock dei processori. I primi processori per
Personal Computer (quei computer di costo contenuto diffusissimi ormai in tutti i luoghi di lavoro e nelle
abitazioni) avevano frequenze di clock di pochi MHz, successivamente sono diventati disponibili a un prezzo
più che contenuto processori con clock di 1000 MHz o più. Esempi classici di CPU sono il Motorola 68000,
che ha equipaggiato diversi computer, fra cui alcuni modelli della Apple, o ancora il processore Sparc, creato
dalla Sun Microsystems. Ma le CPU più diffuse e più conosciute sono senz'altro quelle prodotte dalla
statunitense INTEL. Questa famiglia di processori annovera modelli famosissimi quali: INTEL 486 e INTEL
Pentium. Quest'ultimo, con i suoi successivi sviluppi (Pentium II, Pentium III e Pentium IV), è il processore
più diffuso nei moderni PC. La società statunitense AMD, dopo essersi imposta sul mercato con processori
quali K6 e K6 II ha potenziato il processore Athlon, che può raggiungere la soglia di 1 GHz per il suo clock.
Al riguardo è interessante citare il fatto che la Compaq sta sviluppando, utilizzando processori Alpha, uno dei
più potenti supercalcolatori mai costruiti nella storia. Questo calcolatore sarà dotato di circa 2000 processori
con clock a 1,25 GHz, o in alternativa 2500 di tali processori con clock a 1 GHz. Si prevede che esso sarà in
grado di eseguire fino a 5 trilioni di operazioni al secondo. I primi computer eseguivano un insieme piuttosto
limitato di istruzioni, per lo più elementari; con il progredire della tecnica e della loro diffusione, è divenuto
possibile dotare tali elaboratori di un insieme di istruzioni più ampio. Questo tipo di processori è in genere
denominato di tipo CISC (Complex Instruction Set Computer). I processori CISC hanno dominato la scena
del mondo dei computer dagli anni Sessanta e le case più famose, come per esempio I.B.M. (maggiore
produttrice di Mainframe, macchine di grande potenza elaborativa utilizzate da grandi organizzazioni quali
banche o enti pubblici) o la stessa INTEL hanno equipaggiato i loro computer con questo tipo di processori.
Con un approccio diametralmente opposto nella progettazione di processori è stato realizzato il RISC
(Reduced Instruction Set Computer), che prevede la possibilità di eseguire poche istruzioni, semplici ma
molto veloci. I DEC Alpha, gli UltraSparc della Sun, i Power PC Motorola e i G3 e G4 utilizzati sui Macintosh
si basano sull'approccio RISC o su quelli da esso derivati. In effetti c'è da dire che sebbene i processori
RISC siano i più efficienti, i processori più diffusi sono gli INTEL Pentium, che non sono completamente
RISC, ma hanno solo in parte assorbito le idee alla base di questa architettura, in quanto il passaggio a
un'architettura RISC non li renderebbe compatibili con i vecchi INTEL 8086, processori in dotazione ai PC
I.B.M. dei primi anni Ottanta.
Architettura del computer
Esistono diverse varianti dell'architettura classica del calcolatore, volte generalmente ad aumentare le
prestazioni dei computer stessi. Alcune di queste, sviluppate per scopi particolari, sono state poi adottate
anche sui modelli di calcolatori più diffusi in commercio. Sebbene diverse fra loro, queste tecniche hanno in
comune un elemento fondamentale: il parallelismo. I computer paralleli sono stati sviluppati già negli anni
Sessanta e Settanta, essenzialmente per velocizzare il calcolo. Le prestazioni di un computer sono
determinate da molteplici fattori. Per quanto riguarda il processor,e molto importante è la velocità del suo
clock (come visto, a parità di modello, aumentando il clock, aumentano le prestazioni), il numero e la velocità
dei registri interni al processore e la sua architettura (16, 32 o 64 bit). Tuttavia c'è un limite alla crescita di
questi fattori, dettato dallo stato della tecnologia. La velocità del clock, per esempio, non può essere
aumentata al di là di certi valori (che pure evolvono nel tempo), se non disponendo di nuovi materiali e di
sistemi per dissipare velocemente il calore del processore stesso. Raggiunti i limiti dettati dalla tecnologia in
un certo momento, per aumentare le prestazioni dei computer non c'è che sviluppare un'architettura
differente. Molti tentativi sono stati fatti in questo senso, e il più diffuso tra essi è, come già detto, il
parallelismo: un computer parallelo è quello dotato non di una, ma di più unità elaborative, che operano
contemporaneamente, cioè appunto in parallelo fra loro. Esistono, infatti, due tipi di parallelismo: il
parallelismo a livello di istruzione, che prevede generalmente la presenza di un solo processore, e il
parallelismo a livello di processore vero e proprio, che prevede la presenza di diversi processori (spesso in
gran numero), che cooperano alla risoluzione di un medesimo problema. L'esecuzione di una singola
istruzione di un programma comporta diverse fasi. L'istruzione deve essere caricata dalla memoria,
decodificata e devono essere reperiti i suoi operandi; si deve procedere, poi, all'esecuzione dell'istruzione
vera e propria e, infine, si devono impostare alcuni registri, a seconda del risultato dell'istruzione stessa.
L'idea alla base del meccanismo chiamato pipeline è quello di far svolgere, relativamente a istruzioni
diverse, tali fasi contemporaneamente. Un processore dotato di pipeline è, per esempio, in grado di eseguire
un'istruzione I1, di decodificare un'altra istruzione I2, per prepararla alla successiva esecuzione, e
contemporaneamente di caricare una terza istruzione I3 dalla memoria, eseguendo così tre porzioni di
istruzioni insieme, anche se in fasi diverse. In questo modo il numero di istruzioni eseguite nell'unità di tempo
si triplica rispetto a un processore convenzionale. Le istruzioni di un programma, però, non vengono sempre
eseguite nello stesso ordine in cui si succedono nel programma stesso. Esistono, infatti, le istruzioni di salto,
che consentono di passare l'esecuzione del programma a una qualsiasi altra istruzione del programma
stesso. Dunque, in generale, non è possibile determinare, data una certa istruzione I1, quale sarà la
successiva istruzione I2 eseguita. Questo comporta che, se un processore ha una pipeline in cinque fasi
(cosa che tipicamente avviene), la sua velocità non sarà di cinque volte superiore a quella di un processore
convenzionale, ma forse solo di due. La pipeline è generalmente adottata dai processori RISC: tuttavia
anche processori non RISC hanno adottato questo meccanismo. Una estensione dell'architettura pipeline è
la pipeline doppia. L'idea è di utilizzare appunto due pipelines che eseguano in parallelo coppie di istruzioni,
per incrementare così la velocità di esecuzione di un programma. In realtà, per poter eseguire
contemporaneamente due istruzioni è necessario che queste non siano in conflitto fra loro, per esempio che
non utilizzino entrambe uno stesso registro, e inoltre che l'una non abbia bisogno del completamento
dell'altra per essere eseguita (per esempio una sequenza di operazioni matematiche). Dunque non sempre è
in realtà possibile l'esecuzione contemporanea di due istruzioni, anche disponendo di due pipelines. Per fare
un esempio concreto, il processore INTEL Pentium disponeva appunto di due pipelines, chiamate pipeline
principale ('u' pipeline) e pipeline secondaria ('v' pipeline),quest'ultima dedicata a eseguire solo alcune
istruzioni di tipo aritmetico. Da notare, inoltre, che la presenza di una doppia pipeline poteva essere sfruttata
solo da particolari programmi predisposti ad hoc. Tanto per dare un'idea dell'utilità della doppia pipeline, si
può citare il fatto che, in una serie di esperimenti con programmi di tipo aritmetico, il processore INTEL
Pentium risulta essere veloce il doppio di un processore INTEL 486 dotato di uno stesso clock e di una sola
pipeline. Con programmi di tipo generale la differenza di velocità è meno netta. Si potrebbe pensare di
sviluppare processori costituiti da un numero maggiore di pipelines, al fine di aumentare il numero di
istruzioni da eseguire in parallelo: tuttavia questo approccio non trova molta applicazione, principalmente
perché richiederebbe la necessità di replicare un gran numero di componenti della CPU, con un guadagno di
prestazioni limitato. Un approccio diverso alla soluzione di questo problema è quello di dotare la CPU di una
sola pipeline, in cui però una delle fasi, in particolare quella di esecuzione vera e propria dell'istruzione, è
replicata diverse volte. In pratica vi saranno una sola unità per caricare le istruzioni, una per decodificarle,
una per caricare gli operandi e molte per l'esecuzione vera e propria delle istruzioni stesse. La
considerazione alla base di questo approccio è che la fase di esecuzione vera e propria dell'istruzione è la
più lenta. Dunque, in una pipeline semplice, le istruzioni in esecuzione nelle varie fasi dovranno spesso
attendere che si liberi l'unità deputata all'esecuzione vera e propria dell'istruzione stessa. Replicando questa
unità si eliminerà questo collo di bottiglia e il numero di istruzioni portate a termine nell'unità di tempo sarà
maggiore. Questo tipo di architettura è detta superscalare ed è, per esempio, adottata dal processore INTEL
Pentium II. Un altro modo di aumentare le prestazioni dei calcolatori è quello di dotarli di molti processori. Si
parla allora dei già citati computer paralleli.. Esistono numerose tipologie di computer paralleli, tutti basati
sulla medesima filosofia di fondo: molti processori lavorano più velocemente di uno. I computer paralleli sono
utilizzati prevalentemente in ambiente scientifico o militare, per eseguire calcoli molto complessi legati alla
risoluzione di particolari problemi. Tuttavia, date le grandi richieste di potenza elaborativa formulate da
aziende e pubbliche amministrazioni, sempre più diffuso è l'utilizzo di tali calcolatori in ambiti diversi. In
questa ottica si può considerare il primo esempio di computer parallelo: l'array computer o computer
vettoriale. Molti problemi matematici legati, per esempio, alla fisica, alla chimica o all'ingegneria richiedono di
effettuare calcoli non su singoli numeri, ma su insiemi di numeri (per esempio matrici: una matrice è un
insieme di righe e colonne riempite da numeri). Un array computer è quello dotato di un gran numero di
processori, che eseguono contemporaneamente la medesima operazione su dati diversi (per esempio sui
vari numeri che compongono una matrice). Calcolatori di questo tipo possono essere impiegati anche
nell'elaborazione di immagini digitali: un'immagine in forma digitale è costituita proprio da una o più matrici di
numeri. Un'alternativa semplificata all'array processor, che non è tuttavia un computer parallelo vero e
proprio, in quanto i vari processori che lo compongono eseguono in un certo istante tutti la medesima
istruzione su una memoria a loro riservata, diversa per ciascuno, è il vector processor: esso si presenta
esternamente come un array processor, ma in realtà è costituito da un hardware più semplice. La nascita dei
vector processors è da ricondursi alla difficoltà costruttiva degli array processors, al loro alto costo e alla loro
difficoltà di programmazione. Una famosa casa costruttrice di vector processor è la Cray Research, fondata
da Seymour Cray, un nome molto noto nell'ambito dei calcolatori ad alte prestazioni. Un multiprocessore è
invece un calcolatore dotato di molte CPU, fra loro autonome, che condividono la memoria centrale. Ciascun
processore è del tutto autonomo dagli altri, può eseguire istruzioni indipendentemente dagli altri e accedere
a una qualsiasi cella della memoria centrale. Computer di questo tipo sono stati prodotti con svariate
architetture, ma presentano tutti un medesimo problema: è molto complesso dal punto di vista tecnologico
dotarli di un numero elevato di CPU. In particolare è critica la gestione del flusso di dati (ciascun processore
deve poter comunicare con l'intera memoria e questo richiede, se il numero delle CPU è elevato, un numero
di interconnessioni troppo alto). Un'alternativa è quella di connettere le varie CPU alla memoria tramite un
unico bus comune, ma ciò è molto penalizzante dal punto di vista delle prestazioni. In compenso i
multiprocessori risultano relativamente semplici da programmare. I vari processori possono, infatti,
comunicare e scambiarsi dati tramite la memoria condivisa. Date le difficoltà costruttive dei multiprocessori si
è sviluppata una famiglia alternativa di computer paralleli: i multicalcolatori. Un multicalcolatore è costituito
da molti processori interconnessi fra loro e dotati ciascuno di una sua memoria privata, ma non di una
memoria comune condivisa fra tutti. I singoli processori comunicano fra di loro, scambiandosi messaggi.
Generalmente non accade che ogni processore sia connesso a tutti gli altri, ma solo a un numero limitato di
questi (i vicini). Per inviare messaggi a un processore P2, che non gli sia prossimo, il processore P1 dovrà
inviarlo a un suo vicino, che provvederà a propagarlo con il medesimo meccanismo. I vari processori sono
connessi fra di loro secondo svariate tipologie, quali griglie bidimensionali o tridimensionali. Mentre i
processori di un multiprocessore in genere non superano le poche centinaia (valori tipici sono 16, 64: il
calcolatore SP della IBM, uno dei più popolari multiprocessori, prevede fino a un massimo di 256
processori), sono stati costruiti multicalcolatori con oltre 10.000 nodi (per nodo si intende un singolo
processore). Una categoria particolare di multicalcolatori è quella dei Cluster Computers. Questi, più che
essere un unico calcolatore dotato di molti processori, sono un gran numero di calcolatori distinti, ciascuno
dotato di una sua vita autonoma (almeno entro certi limiti), interconnessi fra loro con una rete di
comunicazione efficiente. Il super calcolatore, che Compaq sta sviluppando e che si è precedentemente
citato, appartiene per esempio a tale categoria di calcolatori. Altra categoria di calcolatori paralleli sono le
NOW (Network of Workstation; Reti di Calcolatori). Si tratta di un insieme di calcolatori, diffusi
commercialmente (Workstation o PC) e dunque reperibili a basso costo, interconnessi fra loro da una rete
locale, anche questa in genere di tipo commerciale. Tali NOW sono in genere dotate di software particolare
per ottimizzare le comunicazioni fra i vari calcolatori. Lo scopo iniziale di queste macchine era permettere lo
sviluppo e il test di un software destinato poi a girare effettivamente su calcolatori paralleli ben più costosi. Il
rapido sviluppo delle prestazioni dei PC, nelle reti locali e in generale dei componenti destinati al mercato di
massa, ha fatto si che le NOW venissero più frequentemente utilizzate in ambienti di calcolo effettivi, al
posto dei sofisticati ma costosissimi calcolatori paralleli (prodotti in quantità limitata). Un interessante
progetto, che utilizza questo tipo di sistema di calcolo è in sviluppo presso la Johnson Graduate School of
Management: esso è finalizzato a sviluppare e verificare la validità di modelli economici nel campo
dell'industria dei manufatti. La cosa interessante è che, in una prima fase dello studio, sono stati sviluppati
degli algoritmi di simulazione su normali PC con sistema operativo Windows. Tuttavia l'esecuzione di tali
programmi su tale piattaforma di calcolo, nel caso di problemi reali, è improponibile (dato l'altissimo tempo di
esecuzione richiesto). La soluzione adottata è stata quella di utilizzare un cluster di PC interconnessi con
una rete veloce e basati su sistema operativo Windows. L'interesse deriva dal fatto che i programmi, nel
passaggio alla nuova e molto più potente architettura di calcolo, non hanno richiesto alcuna modifica:
dunque, un'altra interessante caratteristica dei clusters di PC e delle NOW è quello di poter eseguire (molto
più velocemente) programmi sviluppati inizialmente su comuni PC. Il cluster utilizzato è stato messo a
disposizione dall'Avanced Cluster Computing Consortium (AC3), un consorzio realizzato presso l'Università
di Cornell per lo sviluppo di standard, software e sistemi per istituzioni economiche, governative o in campo
educativo.
Memoria
Un altro componente essenziale di qualsiasi computer è la memoria. Essa si distingue in principale e
secondaria. La memoria principale è quella che contiene i programmi in esecuzione (compreso il sistema
operativo) e i dati su cui tali programmi operano. Si definisce memoria volatile, in quanto allo spegnimento
del computer perderà il suo contenuto. Lo scopo di questa memoria non è dunque quello di mantenere le
informazioni nel tempo, ma solo per il periodo necessario a che un programma venga eseguito. È da qui che
la CPU preleva i programmi da eseguire e i dati su cui effettuare le operazioni, secondo le istruzioni dettate
dai programmi stessi. La memoria secondaria è più lenta della memoria principale, ma è presente in quantità
molto maggiore. Ha lo scopo di preservare le informazioni nel tempo: si tratta, dunque, di una memoria
permanente, che mantiene le sue informazioni anche allo spegnimento dell'elaboratore. La memoria
secondaria è disponibile su supporti molto diversi fra di loro. Il dispositivo di memorizzazione più diffuso è il
disco magnetico. Esso è costituito da uno o più piatti di materiale magnetico e da testine sorrette
meccanicamente da bracci e in grado di scrivere e leggere informazioni sui piatti magnetici. I dischi sono
mantenuti in rotazione da un motore e le testine sono in grado di spostarsi radialmente rispetto ai piatti. I
dischi presenti nei moderni computer hanno una capacità di memorizzazione dell'ordine di decine di
Gigabyte (un Gb è circa un miliardo di byte , mentre la memoria principale è in genere dell'ordine di centinaia
di Megabyte (un Megabyte è circa un milione di byte). Gli standard più diffusi per i dischi rigidi sono lo
standard IDE e quello SCSI (si legge scasi). Essi hanno subito delle evoluzioni: per esempio i dischi IDE
sono stati ormai sostituiti dai più veloci dischi EIDE. Più complessa è stata l'evoluzione dei dischi SCSI.
Quelli originali (SCSI-1) trasferivano dati (in lettura o scrittura) alla velocità di 5 Mb al secondo, tramite un
bus operante a 5 MHz. La versione più recente dello SCSI, Ultra SCSI, trasferisce oggi dati a 40 Mb al
secondo e utilizza un bus a 20 MHz. Inoltre gli SCSI originali trasferivano i dati con un parallelismo di 8 bit
per volta: Ultra SCSI trasferisce invece 16 bit per volta. Malgrado i progressi compiuti negli ultimi anni nelle
prestazioni dei dischi fissi e nella loro affidabilità, le prestazioni di questi non possono definirsi soddisfacenti
se paragonate con quelle della CPU, che hanno subito un incremento di gran lunga maggiore. Per ovviare a
questa disparità sono state proposte varie soluzioni, una delle quali, in particolare, va imponendosi: il RAID
(acronimo di Redundant Array of Independent Disks (ossia insieme di dischi a indipendenti). Esiste in varie
versioni, le più comuni delle quali sono RAID 0 e RAID 1. Lo scopo di questo meccanismo è quello di
aumentare le prestazioni dei dischi tradizionali (velocità di scrittura e di lettura) e di aumentarne l'affidabilità
(tolleranza ai guasti). Se per aumentare la prestazione della CPU, quindi, si ricorre al parallelismo, il RAID si
basa sul parallelismo. Un RAID consiste in un gruppo di dischi, ciascuno dotato della propria testina e unità
di controllo e di un controllore RAID, che coordina l'attività dei vari dischi. Un RAID, sebbene consista in una
batteria di dischi, esternamente (cioè dal computer a cui è collegato) è visto come un unico disco. L'idea alla
base di RAID 0 è la seguente: quando il controllore RAID riceva una richiesta di scrittura di un file, lo
suddivide in diverse parti, che scrive contemporaneamente (in parallelo e quindi in un tempo minore) sui vari
dischi di cui è composto. Questa tecnica è nota come striping. Quando vi è un'operazione di lettura, sarà
cura del controllore RAID 0 di cercare il pezzo di file appropriato. Da notare che il sistema operativo non
deve in alcun modo preoccuparsi dei vari dettagli di questa operazione, che è gestita interamente dal
controllore RAID. Questo tipo di RAID accelera le prestazioni in scrittura e in lettura. Purtroppo, l'affidabilità
del sistema è inferiore a quella di un singolo disco tradizionale (la probabilità di rottura di uno fra i dischi che
compongono un RAID è maggiore di quella di un solo disco). Uno schema alternativo di RAID molto diffuso
è il seguente (RAID 1): quando si deve scrivere un file su disco, esso viene suddiviso in parti. Ciascuna di
queste parti viene scritta più volte su dischi diversi (tipicamente due). Vi è dunque quella che si chiama una
ridondanza nella memorizzazione dell'informazione. Il vantaggio di ciò è nell'affidabilità del sistema: quando
si legge un file o una sua parte, il RAID è libero di reperirlo su dischi diversi, prendendo in considerazione
una qualsiasi delle sue copie. Se si rompe uno dei dischi che compongono un RAID 1, i pezzi di file che
contiene andranno persi, ma potranno essere reperiti su un altro disco. Si potrà così procedere alla
sostituzione del disco rotto senza alcuna perdita di informazioni. Inoltre, poiché il file è memorizzato in pezzi
su dischi diversi, le operazioni di lettura avvengono ancora in parallelo, con conseguente miglioramento delle
prestazioni (anche la scrittura avviene in parallelo, ma, dato che i vari pezzi del file devono essere replicati
su più dischi, il RAID 1 in generale non comporta un aumento della velocità di scrittura).
Sistemi operativi
Il computer è deputato all'esecuzione di determinati compiti sotto la guida di appositi programmi, costituiti da
sequenze di istruzioni che il calcolatore è in grado di eseguire. L'insieme di questi programmi costituisce
quello che viene detto software. Nell'ambito del software esiste, tuttavia, una particolare categoria, quella dei
sistemi operativi. Un sistema operativo è un programma (in realtà un insieme di programmi) che ha
essenzialmente lo scopo di rendere le risorse hardware di un computer disponibili ai programmi applicativi.
L'evoluzione dei sistemi operativi prevede un sempre maggior ricorso a interfacce grafiche (GUI), per
facilitare l'interazione dell'utente con la macchina. I sistemi operativi si distinguono quindi principalmente per
il tipo di GUI che può essere “a carattere” oppure “a grafica”. Appartengono alla prima categoria i sistemi
operativi utilizzati principalmente nei grossi centri di calcolo come Unix, Solaris, Dec o Linux, che possono
comunque essere dotati di interfaccia grafica, residente tuttavia sui terminali dotati di protocollo X-term. Alla
categoria dei sistemi operativi grafici appartengono quelli sviluppati appositamente per il mondo dei PC e
quindi Windows, Mac-OS, Amiga OS e OS/2 di IBM.
Programmi applicativi
Per applicazioni, o programmi applicativi, si intendono tutti quei programmi il cui scopo non è quello di
permettere il funzionamento del computer, ma di soddisfare le specifiche esigenze dell'utente. L'insieme
delle applicazioni disponibili è vastissimo, data la grande versatilità del computer stesso. I primi computer
avevano essenzialmente lo scopo di eseguire calcoli, dunque i primi programmi applicativi erano
essenzialmente di tipo matematico, ma ben presto ci si rese conto che potevano vantaggiosamente essere
utilizzati per memorizzare informazioni e per elaborarle. Tra i programmi applicativi va evidenziata una
particolare categoria, detta software di base, che si interpone tra il sistema operativo vero e proprio e le
applicazioni utente. Si tratta generalmente del data base, come Oracle, Informix o DB2 e dei servizi che
gestiscono la comunicazione tra i vari processi che sono concorrentemente in esecuzione su una stessa
macchina o su più macchine collegate in rete. Nell'ambito dell'informatica per le aziende è interessante citare
una tecnologia, che ha una diffusione sempre maggiore: il data mining. Lo scopo del data mining (DM) è
essenzialmente quello di analizzare in modo automatico grosse quantità di dati alla ricerca di regolarità e di
ciò che, nell'ambito di tale disciplina, è conosciuto come pattern. Il DM è utilizzato prevalentemente
nell'ambito delle aziende commerciali e in genere i dati da analizzare sono spesso contenuti in un data
warehouse, che è un sistema adatto alla conservazione di grosse quantità di dati di tipo storico (archivi dei
clienti e dei loro ordinativi negli ultimi anni). Lo scopo del DM è quello, a partire da grosse collezioni di dati,
quali quelle possedute da banche o imprese manifatturiere, di ricavare informazioni significative e utili
principalmente per prendere decisioni. Nell'ambito del DM sono previsti due modelli differenti: il modello di
verifica e quello di scoperta. Il modello di verifica (verification model) prevede che l'utente fornisca, in input al
sistema, un'ipotesi e gli chieda di verificarne la validità. In questo tipo di modello il sistema in realtà non
estrae informazioni, limitandosi a verificare ipotesi. Il modello di scoperta prevede che il sistema individui in
modo autonomo informazioni nascoste nei dati a disposizione, senza intervento esterno. Si può utilizzare un
tale approccio per identificare in un data warehouse aziendale gruppi di clienti per una campagna
pubblicitaria. Tale ricerca viene effettuata dal sistema senza formulare alcuna ipotesi: il sistema cercherà
autonomamente di raggruppare i clienti in base a caratteristiche comuni che esso stesso individuerà
Computer a comando mentale
prototipo di computer tecnologicamente molto avanzato, che utilizza le onde cerebrali emesse dal sistema
nervoso centrale, di cui negli anni Novanta sono stati sviluppati dei prototipi. Le ricerche sui computer a
comando mentale sono in buona parte finanziate da organismi della Difesa, dato il loro valore strategico, per
esempio, nel pilotaggio degli aerei, dove si richiedono tempi sempre più bassi di reazione da parte del pilota.
In particolare, questi sistemi intendono captare, tra i diversi tipi di onde elettromagnetiche emesse dal
cervello, quelle che possono rispecchiare un certo tipo di attività, amplificarle e utilizzarle per comandare un
sistema elettronico. È accertato che il cervello produce una serie ben precisa di onde, comprese tra
frequenze note. Per esempio, le onde a (tra 8 e 13 Hz) vengono emesse da un cervello sveglio in condizione
di riposo; le b (13-30 Hz) da un cervello impegnato in un'attività complessa; le d (0,5-0,4 Hz) durante il sonno
non-REM, le q (4-7 Hz) durante il sonno REM, quello in cui si sogna e si compiono rapidi movimenti degli
occhi. Un tipo di onde a, dette onde m, viene emesso dal cervello quando questo organo controlla le funzioni
motorie e sensoriali e in particolare dalla corteccia sensomotoria, che si attiva in modo particolare in
presenza di stimoli sensoriali o quando bisogna attivare un movimento. Alla base aerea Wright-Patterson
dell'Aeronautica statunitense sono state compiute ricerche sulle onde m, poiché è stato accertato che con un
opportuno addestramento un individuo può, in un certo senso, esercitare un controllo sull'emissione di tali
onde in presenza di determinati stimoli, pensando più o meno intensamente alla cosa che gli stimoli
richiamano. Queste ricerche hanno condotto allo sviluppo di un sistema mediante il quale un pilota può
comandare con la mente l'inclinazione di un aereo in un simulatore di volo. Il pilota indossa un casco con
elettrodi che si appoggiano al cranio in coincidenza con l'area della corteccia sensomotoria. Davanti a lui,
una serie di luci si accende e si spegne alla frequenza di 13,5 Hz, inducendo una serie di scariche elettriche
di analoga frequenza nei neuroni dell'uomo. Questi riesce a modificare con la mente il ritmo imposto
dall'esterno: se lo rallenta il simulatore dell'aereo vira a sinistra; se lo accelera, vira a destra. Un sistema
analogo è stato messo a punto nei laboratori Wadsworth del Ministero della Sanità degli U.S.A. ed è basato
su un casco simile a quello dell'esperimento precedente, indossato da volontari che riescono a muovere il
cursore di un computer in alto o in basso a seconda del tipo di pensiero su cui impegnano la propria mente.
Dei 25 volontari che si sono prestati all'esperimento, il 70-80% è riuscito in questa impresa. Uno di essi può
addirittura muovere il cursore su e giù semplicemente pensando al concetto di “su” e a quello di “giù”. Dai
precedenti studi nel campo, si è sviluppato l'Eyeglaze, un computer a comando mentale che legge 30 volte
al secondo la posizione degli occhi su una tastiera visiva, individuando il persistere dello sguardo sulle
lettere o sui tasti che si vogliono azionare, attraverso un sensore a raggi infrarossi posto sotto il suo
schermo. Una ricerca compiuta in Austria (Politecnico di Graz), invece, non si basa sull'addestramento
dell'uomo a produrre specifiche onde cerebrali, ma su computer a comando mentale in grado di riconoscere
le diverse onde cerebrali emesse dal cervello di una persona quando sta pianificando un'azione e rivelate da
un elettroencefalogramma. Quando l'uomo compie un movimento, infatti, nel suo cervello il comando viene
pianificato proprio come una subroutine di un software; successivamente, il cervello invia ai muscoli i
comandi opportuni per svolgere in sequenza le sotto-azioni che fanno parte del movimento desiderato. I
ricercatori austriaci sono riusciti a istruire un computer a comando mentale affinché riconosca la sequenza
elettroencefalografica che si manifesta nel cervello di un volontario quando questi muove un dito. Il segnale
captato dall'elaboratore è servito per far muovere un cursore. Alla fine dell'addestramento, la macchina è
riuscita a interpretare correttamente il movimento nell'85% dei casi. Altre sperimentazioni sono state
condotte sulle possibilità di impiego di questo tipo di computer da parte di malati. Quello sperimentato dalla
ricercatrice Rosalind Picard, del Massachusetts Institute of Technology, è stato programmato per
riconoscere gli impulsi emanati dal cervello del paziente. Questo computer, però, riconosce soprattutto le
reazioni di carattere biologico come il cipiglio, il battito irregolare del cuore e altre difficoltà del malato. Capta
le manifestazioni attraverso sensori collocati sul corpo dell'ammalato che è posto davanti allo schermo, in più
offrendo consigli o suggerimenti di aiuto. La Emory University di Atlanta, nel 1998, ha studiato, invece, un
sistema per stimolare le cellule nervose di pazienti, non in grado di muoversi e di parlare, a interagire con il
computer a comando mentale Esso è costituito da un'unità centrale e da un chip grande come una punta di
una penna, che viene impiantato nella corteccia celebrale. Il chip, quindi collegato ai neuroni circostanti,
lancia segnali semplici al computer, che risponde agli stimoli. Per il momento si tratta di semplici segnali
come “su”, “giù”, “destra” e “sinistra”. Il chip è composto da 2 piccoli coni di vetro ricoperti da elementi chimici
del sistema nervoso periferico del paziente. Riconoscendo questi agenti chimici, i nervi crescono attorno ai
coni e li penetrano. Si creano così contatti e intrecci tra nervi e coni di vetro e si forma una specie di minicervello all'interno dei coni. Il fine di questa ricerca è allenare le cellule nervose a interagire con il computer,
fino a mettere in grado l'ammalato di scrivere e ricevere lettere attraverso la posta elettronica di Internet. In
una seconda fase, il computer a comando mentale potrebbe permettere ai paraplegici di accendere e
spegnere le luci o di chiamare l'infermiera. Secondo le previsioni dei ricercatori, in futuro dovrebbero essere
possibili diversi impieghi di questi sistemi da parte dei portatori di handicap per svolgere soprattutto azioni
elementari.
Computer a DNA
ipotesi di elaboratore che impiega materiale biologico per la memorizzazione dei dati o per l'elaborazione
delle informazioni. La ricerca di "sostituti del silicio", in grado di immagazzinare informazioni in spazi sempre
più ristretti, ha condotto alla progettazione di computer che utilizzino, come elemento di memoria e come
unità di calcolo, la molecola che è alla base di tutti gli organismi viventi: il DNA. A differenza degli elaboratori
elettronici tradizionali, i computer a DNA non immagazzinano i dati utilizzando il calcolo binario, né si
servono di formule matematiche per risolvere problemi, ma usano per le operazioni enzimi capaci di leggere,
copiare e manipolare le informazioni, in quanto i loro dati sono strutture di molecole organizzate in stringhe
di DNA. L'idea di un computer a DNA è stata formulata per la prima volta nel 1994 da Leonard Adleman e
ancora non esistono veri e propri prototipi, ma soltanto progetti teorici, di cui il più avanzato è quello
sviluppato, nel 1995 presso l'Università della California, battezzato TT-100, dalle iniziali di Test tube
(provetta) e da 100 il numero di microlitri di DNA necessari. Il DNA può essere schematizzato come un
sistema che elabora informazioni, partendo dalle "lettere-base" (i nucleotidi adenina, citosina, guanina e
timina) e combinandole in un numero incredibile di "stringhe", che sono i codici biochimici i quali permettono
a un organismo di vivere. Se le lettere-base vengono considerate come codici di informazione, le stringhe
risultanti sono il prodotto dell'elaborazione di queste informazioni di base. Ogni frammento di DNA, quindi,
può considerarsi come un microprocessore specializzato nello svolgere una determinata elaborazione,
anche molto complessa, oppure un banco di memoria di dimensioni molecolari. In una singola molecola di
DNA di un organismo superiore, che occupa lo spazio di 20 Å (200 milionesimi di millimetro), sono contenuti
ca. 100 miliardi di basi nucleotidiche, pari all'incirca a 100 Gigabyte. Una provetta con qualche milione di
molecole di DNA potrebbe immagazzinare così 100.000 Terabyte, cioè l'equivalente di 10 milioni di pellicole
cinematografiche di 4 ore ciascuna. Altra tecnologia per la progettazione di computer a DNA è, inoltre, quella
messa a punto dall'Università del Winsconsin- Madison, che consiste nel fissare stringhe di DNA su superfici
di vetro e d'oro
Computer a riconoscimento vocale
elaboratore elettronico dotato di interfaccia azionabile attraverso comandi vocali. I primi computer a
riconoscimento vocale sperimentati riconoscevano solo i comandi dati dalla persona che aveva messo a
punto il sistema e scanditi lentamente; con l'incremento della velocità di elaborazione e di memorizzazione
dei moderni microprocessori è stato, quindi, possibile realizzare computer azionabili da qualsiasi persona. I
progressi nel riconoscimento della voce, oltre alla creazione di software per PC, ovvero programmi
“intelligenti”, che consentono a un computer a riconoscimento vocale di scrivere sotto dettatura un testo con
una bassa percentuale di errori o di rispondere a richieste di informazioni o ancora di impartire ordini per la
navigazione in Internet, hanno prodotto esemplari dotati anche di hardware da indossare. Questi, già
impiegati negli ultimi anni del Novecento nei laboratori di ricerca e nelle grandi industrie, possono essere
utilizzati soprattutto da chi deve tenere le mani libere, come i chirurghi o i tecnici addetti alla manutenzione
degli aerei, in quanto hanno due schermi a cristalli liquidi sovrapposti e molto sottili, che si aprono come due
pagine di un libro, e possono gestire applicazioni diverse. Alcuni modelli hanno un piccolo visore da porre
davanti all'occhio, che sostituisce lo schermo, altri si agganciano alla cintura come un walkman, altri ancora
sono piccoli e ultrapiatti, tipo un'agenda elettronica, e si appendono al collo.
Computer graphics
espressione inglese di uso internazionale, per indicare la grafica al computer per l'esecuzione di disegni e
immagini da realizzare, in bianco e nero o a colori, sia su schermo che su carta stampata. La computer
graphics ha conosciuto una grande evoluzione, trasformandosi da strumento di disegno e progettazione 2D
(bidimensionale) e 3D (tridimensionale) in generatore di ambienti tridimensionali animati. La potenza di
calcolo messa a disposizione dai computer grafici, dotati di decine di processori che lavorano in parallelo sui
vari oggetti che compongono l'ambiente da simulare, ha consentito di generare in poche ore di calcolo interi
filmati di altissima qualità. Con questa applicazione vengono realizzati quasi tutti gli effetti speciali utilizzati in
cinematografia: nel film Jurassic Park (1993), per esempio, gli attori reali si integrano con gli animali
preistorici generati al computer, in altri film di animazione, come Toy Story (1995), tutti i fotogrammi del
lungometraggio sono interamente realizzati al computer. Per ottenere questi effetti di altissimo realismo,
sono stati elaborati particolari algoritmi matematici, detti di ray-tracing (tracciatura di raggi), che permettono
ai processori grafici di gestire le luci, le ombre proiettate, i riflessi e la trasparenza in pochissimi
nanosecondi. Grazie a questa tecnica, con i supercomputer grafici utilizzati a Hollywood si riesce a generare
un'intera scena in poche ore di calcolo, a fronte dei diversi giorni che, ancora negli anni Novanta,
occorrevano per eseguire le decine di milioni di calcoli trigonometrici necessari a generare un singolo
fotogramma fotorealistico
Computer quantistico
ipotesi futuristica di computer che funziona integralmente sulla base dei fenomeni di fisica quantistica. La
possibilità da parte dei fisici di osservare e controllare con sempre maggiore precisione il comportamento
degli elettroni nelle loro dimensioni quantistiche (cioè nel mondo submicroscopico dove al posto della fisica
classica vige la fisica quantistica) ha portato alla formulazione di una serie di teorie relative alla possibilità di
realizzare computer quantistici, sfruttando alcune peculiarità del comportamento quantistico di una particella,
ben diverso da quello proprio di una particella che si muove in un sistema di dimensioni macroscopiche quali
gli odierni computer. L'applicazione della fisica quantistica all'elettronica non è nuova: nel 1957 il giapponese
L. Esaki inventò il primo dispositivo elettronico quantistico, il diodo a effetto tunnel, noto anche come diodo di
Esaki. Questo risultato ha condotto poi alla realizzazione di altri dispositivi elettronici che sfruttavano
proprietà quantistiche degli atomi, come il primo laser a semiconduttori, il transistor ad alta mobilità di
elettroni (Hemt), diventato di uso comune. Ma pur utilizzando fenomeni puramente quantistici al loro interno,
tali dispositivi hanno un output che appartiene al mondo della fisica classica, in quanto sono interconnessi
con altri dispositivi elettronici secondo le regole tradizionali dei sistemi macroscopici. Pur avendo prestazioni
decisamente migliori dei tradizionali dispositivi a semiconduttore, l'insieme della struttura (apparecchiatura
elettronica, computer ecc.) di cui fanno parte è governato dalle leggi della fisica classica. Alla fine degli anni
Ottanta alcuni ricercatori hanno, invece, cominciato a ipotizzare un tipo di computer che funzionasse
integralmente sulla base dei fenomeni della fisica quantistica, quindi secondo processi e algoritmi
profondamente diversi da quelli tradizionali. In particolare, D. Deutsch (Oxford) ha ipotizzato il concetto di
“parallelismo quantico”, utilizzando il concetto della “sovrapposizione” tipico della fisica quantistica. Sulla
base di questo concetto, teorizzato negli anni Trenta del Novecento da E. Schrödinger, un elettrone in un
atomo non ha una sola posizione definita, ma può trovarsi in una varietà di possibili collocazioni, ognuna
descritta da un diverso stato quantico. Si trova cioè in una sovrapposizione di stati. Tuttavia, quando si cerca
di “vedere”, o meglio di “misurare” questa particella, la sovrapposizione viene distrutta ed essa viene forzata
a trovarsi in una sola posizione. Un computer quantistico può essere immaginato come formato da un
registro di “celle” ognuna delle quali può essere costituita da 1 atomo in grado di assumere, per esempio, 10
diversi stati energetici e quindi 10 “superposizioni”. Tali 10 superposizioni possono essere fatte
corrispondere a una stringa di 10 cifre binarie, laddove in 1 cella di un computer tradizionale (un transistor) è
possibile ottenere soltanto 2 cifre binarie, la posizione 0 o la posizione 1. Per rimanere nell'esempio, si
avrebbe quindi un guadagno di un fattore cinque. Quando però il numero delle celle viene aumentato e
passa a 2, se in un computer tradizionale si possono ottenere 4 cifre binarie, in un computer quantistico ogni
stato di sovrapposizione della prima cella si combina con ogni stato possibile della seconda, ottenendo
quindi 100 cifre. Proseguendo di questo passo, si nota che la crescita della quantità di numeri “contenibili”
varia esponenzialmente con il numero delle celle, assumendo ben presto dimensioni inimmaginabili. Il
concetto di computer basato sulla sovrapposizione di stati quantici ha avuto un importante sviluppo nel 1994,
quando il ricercatore statunitense P. Shor (AT&T) ha annunciato di aver ottenuto il primo algoritmo col quale
eseguire calcoli in un computer quantistico. Grazie a questo algoritmo, che sfrutta la crescita esponenziale
della capacità di un computer quantistico, è stato calcolato che si potrebbe fattorizzare un numero di 200
cifre decimali in poco più di un millisecondo, laddove il più potente supercomputer attuale impiegherebbe un
tempo superiore a quello dell'età dell'Universo (15 miliardi di anni). Tali prestazioni, ovviamente soltanto
teoriche, si scontrano però con un problema legato al fatto che per utilizzare un computer quantistico
bisogna prima o poi passare dal mondo quantistico al mondo della fisica classica: per esempio, per leggere il
risultato di un calcolo. Come aveva predetto Schrödinger, quando si cerca di misurare lo stato di un atomo in
sovrapposizione di stati, la sovrapposizione sparisce e l'atomo viene forzato a occupare un solo stato. Per
cui, cercando di leggere, cioè misurare l'output di un computer quantistico, tutto il beneficio del parallelismo
quantico svanirebbe. Per risolvere il problema, lo stesso Shor ha proposto di sfruttare un fenomeno di
interferenza, col quale le diverse sovrapposizioni di stati interferiscono l'una con l'altra (ancora a livello
quantistico), producendo come risultato una serie di altri fenomeni che possono non appartenere più alla
sfera quantistica e che quindi possono essere “letti” anche da un sistema che opera nel mondo
macroscopico della fisica classica. Sulla base di queste teorie, alcuni ricercatori hanno incominciato a
realizzare sperimentalmente dispositivi logici per il calcolo quantistico, basati, per esempio, su atomi di
berillio (National Institute of Standards and Technology, U.S.A.), superraffreddati a 1 K per poter lavorare
con i livelli più bassi di energia. La ricerca sul computer quantistico riceve notevoli finanziamenti sia in U.S.A.
(da parte della Defense Advanced Research Project Agency – D.A.R.P.A. – che ha creato un Institute for
Quantum Information and Computing), sia in Europa (Programma T.M.R.), sia in Giappone. Le applicazioni
di tale tipo di computer, se mai lo si riuscisse a realizzare, sono amplissime e trovano spazio in tutti i settori
in cui vengono utilizzati i supercomputer tradizionali, con la possibilità di aumentare in maniera elevatissima
le capacità di calcolo: simulazione di sistemi complessi, meteorologia, fisica dei materiali, fisica delle
particelle, calcolo di codici crittografici
Computerizzare
v. tr. [sec. XX; da computer]. Introdurre i computer per eseguire determinate operazioni o prestare particolari
servizi (in precedenza assolti con sistemi più tradizionali); praticare, trattare, elaborare mediante computer:
computerizzare i dati anagrafici, le previsioni meteorologiche; un sistema di puntamento del bersaglio del
tutto computerizzato.
Connessione
sf. [sec. XVI; dal latino connexĭo-ōnis]. Atto ed effetto del connettere; legame di relazione, di
interdipendenza; relazione stretta fra due o più cose, per lo più fig.: connessione di fatti; la connessione tra la
prima e la seconda parte del romanzo
In informatica, collegamento tra elaboratori atto a consentire lo scambio di dati; connessione dial up, o dial
up access, connessione a Internet realizzata mediante un modem, una linea telefonica commutata, un
service provider e appositi programmi.
Consòle
unità di comunicazione con l'elaboratore costituita da una macchina per scrivere e da un quadro di comando.
Dalla console è possibile effettuare controlli e modificazioni dei programmi e dei dati, avviare, interrompere e
terminare le elaborazioni in corso e intervenire costantemente nel processo elaborativi
Cookie
s. anglo-amer. (propr. biscotto) usato in it. come sm. In informatica, piccolo file creato da un server di
Internet nel disco rigido del computer dell'utente, allo scopo di registrare le operazioni compiute in rete come,
p.es., i siti visitati o gli acquisti effettuati
CPI
sigla dall'ingl. Characters Per Inch (caratteri per pollice). Misura della densità di stampa di una stampante.
Valori tipici mutuati dalla dattilografia sono il pica (10 cpi) e l'elite (12 cpi).
CP/M
sigla dall'ingl. Control Program for Microcomputers (programma di controllo per microelaboratori). Sistema
operativo, ossia insieme di programmi di gestione delle risorse dell'elaboratore (incluse le unità periferiche),
nato insieme ai microprocessori e molto usato negli anni Ottanta. Creato originariamente per i
microcalcolatori che impiegavano microprocessori a 8 bit, è stato esteso ai microprocessori a 16 bit.L'MSDOS ha ereditato molte delle funzioni e dei comandi del CP/M, che sono poi diventate standard con la
diffusione di Windows.
CPS
sigla dall'ingl. Cycle Per Second (ciclo al secondo). Unità di misura della frequenza pari a 1 hertz. È, p. es.,
la velocità di trattamento, trasferimento, stampa dell'informazione.
Per gli elaboratori elettronici individua la velocità di scansione dell'orologio interno (p. es. per i PC la gamma
di velocità è passata dalle migliaia di hertz degli anni Settanta alle decine di milioni degli anni Novanta).
CPU
sigla dall'ingl. Central Processing Unit (unità centrale di elaborazione). Rappresenta il cuore dell'elaboratore
elettronico e ha come funzione fondamentale quella di elaborare informazioni digitalizzate. La C. è un
organo complesso che effettua operazioni aritmetiche, logiche e di controllo tramite le due unità di cui è
composta: l'unità logico-aritmetica (ALU) e l'unità di controllo. Le sue operazioni sono regolate da un
temporizzatore (clock) interno o esterno mediante impulsi prodotti da un oscillatore libero, in genere un
oscillatore al quarzo sintonizzato su una frequenza determinata. La C. viene utilizzata sia per trasferire alla
memoria istruzioni e dati, sia per estrarre dalla memoria le istruzioni eseguendole in successione ed
elaborando pertanto i dati secondo il programma. La C. accede alla memoria, ai dispositivi di ingresso/uscita
(interfacce telematiche, ecc.) e alle periferiche (stampanti, memorie ausiliarie di massa, plotter, video,
tastiera, ecc.) tramite gruppi di conduttori paralleli (bus) il cui numero è uno dei caratteri distintivi
dell'elaboratore, in quanto coincide con il numero dei bit elaborati contemporaneamente. I grandi elaboratori
progettati in origine per i calcoli scientifici erano a 32 bit per permettere la precisione richiesta, ma con
l'affermarsi della microelettronica e dei calcolatori ad ampia diffusione (i personal computer) i limiti di
progetto del chip hanno determinato la dimensione del bus e dell'elaborazione corrispondente. Il primo chip
a 4 bit è del 1974 cui è seguito, l'anno dopo, quello a 8 bit (1 byte). Successivamente si è passati a 16 bit (1
parola) e oggi a 32 bit. Con i nuovi chips a 64 bit, immessi sul mercato nel 1989, si può considerare
superato, anche per i personal computer, lo standard degli elaboratori scientifici più potenti degli anni
Cinquanta
Cracker
Pirata informatico, detto anche hacker, che si introduce nei sistemi operativi di altri computer con finalità
illegali
Crash
In informatica, blocco dell'attività di un computer, causata da una disfunzione nell'hardware o nel software
del sistema
Criptare
v. tr. [sec. XIX; dal gr. kryptō, nascondere]. Cifrare segnali o insieme di dati in modo da renderli indecifrabili a
chi non ne possiede i diritti d'accesso: c. un numero sul cellulare, una trasmissione televisiva.
Cursore
sm. [sec. XIV; dal lat. cursor -ōris, propr. che corre, da currĕre]. 1) Nel tribunale ecclesiastico, l'ufficiale che
ha il compito di notificare gli atti giudiziari e di eseguire le sentenze. In elettronica, simbolo (un trattino, un
segno di disuguaglianza, un rettangolo) che appare sul visualizzatore o sullo schermo del terminale di un
elaboratore e che indica la posizione “attiva” dove verrà inserito il successivo carattere. È in genere ben
evidenziato sul fondo e a volte lampeggiante. Viene comandato dalla tastiera tramite gli appositi tasti o da
comandi mobili come il mouse e il joystick
Cyber
[sec. XX; dall'inglese cybernetics, cibernetica]. Prefisso usato in termini composti di formazione moderna che
indica attinenza con la cibernetica o con l'informatica. Il concetto cyber viene spesso dilatato ad abbracciare
la produzione culturale, le relazioni sociali e persino le mode, gli stili di vita e i comportamenti individuali che
assumono il “paradigma cyber” come vero e proprio linguaggio espressivo e forma di comunicazione
D
DAB
acronimo di Digital Audio Broadcasting, sistema per la trasmissione radio digitale. Sviluppato dal progetto
Eureka 147 (un consorzio mondiale di emittenti, gestori di network, aziende di elettronica di consumo e
istituti di ricerca), il D. consente di ricevere non solo programmi audio di qualità pari a quella dei compact
disc, accompagnandoli con tutta una serie di informazioni inerenti e non al programma ascoltato (gamma di
frequenza, titoli dei brani trasmessi o testi delle canzoni ecc.), ma anche testi, fotografie, dati e perfino
filmati. Secondo quanto previsto dalla legge sull'emittenza, l'avvio in Italia delle trasmissioni con il sistema
D., l'unico attualmente disponibile al mondo che risponde ai requisiti posti dalla International
Telecommunication Union (ITU), è fissato per il 2008
Data base
loc. inglese usata in italiano come sm. o f. (propr. base di dati, da data, pl. di datum, dato, elemento
primario). Termine entrato nell'uso comune in informatica intorno al 1964 per denotare una raccolta di grandi
quantità di dati e di informazioni archiviati su supporto magnetico secondo regole precise e generali. Esso
rappresenta l'evoluzione degli archivi “cartacei” permettendo all'utente di accedere velocemente, attraverso
l'utilizzo dei calcolatori, ai dati di interesse. Il data base ha la caratteristica di poter essere utilizzato da utenti
diversi; inoltre i dati sono raccolti tutti in un unico archivio (il data base viene perciò detto “integrato”)
evitando così le duplicazioni di informazioni e ottimizzando lo spazio di memoria a disposizione. Le
informazioni vengono memorizzate nel data base in “registrazioni” logiche, ognuna delle quali è suddivisa in
un certo numero di campi; essi rappresentano una serie di qualità della registrazione. Una o alcune di
queste qualità vengono utilizzate per la ricerca di archivio. Ciascuna registrazione viene in generale
collegata, tramite uno o più campi, ad altre, viene cioè posta in “relazione” ad altre registrazioni in modo da
formare dei gruppi di informazioni omogenei; i data base corrispondenti vengono chiamati “relazionali”. Le
operazioni tipiche che si compiono su un data base sono: ricerca, inserimento e cancellazione di una
registrazione, modifica e aggiunta di campi. Un'evoluzione del modello relazionale oggetto di indagine è il
data base deduttivo. Quest'ultimo non è solo un contenitore di fatti noti ma, in base a regole generali, ha la
capacità di ricavare fatti nuovi da quelli memorizzati. Inoltre, dato che le regole sono immagazzinate a loro
volta come dati anziché essere procedure prefissate, esse sono modificabili, a differenza di quanto avviene
nei sistemi tradizionali
Data entry
loc. ingl. [propr. entrata di dati] usata in it. come sm. inv. Inserimento di dati, generalmente tramite tastiera, in
un sistema di elaborazione
Data minino
loc. ingl. (letter. escavazione di dati) usata in it. come sm. In informatica, il problema, e le tecniche per la sua
soluzione, dell'identificazione di modelli (che possono essere regolarità, tendenze o strutture) in un insieme
di dati, generalmente contenuti in un data base. Questa identificazione può essere basata su tecniche
statistiche, logiche, o di intelligenza artificiale, ed è solitamente un passo in un processo di “scoperta di
conoscenza” (Knowledge discovery), in cui i modelli individuati vengono utilizzati per interpretare i dati a un
più alto livello di astrazione. Questa tecnica, spesso usata per interpretare grandi quantità di dati a partire
dall'analisi di un campione ristretto, diventa indispensabile quando si ha a che fare con basi di dati, p. es.
scientifiche o economiche, contenenti miliardi di dati. Tecniche di d. sono inoltre utilizzate per costruire indici
di rilevanza dei siti presenti sul Web relativi a un certo argomento
Dato
Informatica
Elemento costitutivo dell'informazione, rappresentazione in forma convenzionale di un fatto, di un concetto,
di un oggetto o di una situazione, suscettibile di trattamento per mezzo di macchine. Si trova in molte
espressioni di uso comune quali: elaborazione dei dati, banca dei dati, trasmissione dei dati, rete di dati, ecc.
Più precisamente nel contesto digitale è una sequenza di bit la cui natura è definita dal formato, dalla
collocazione, dall'operazione svolta. Viene impiegato in tre accezioni principali: A) in un programma, i dati
sono le costanti e le variabili e sono collocati nel proprio spazio di memoria (archivi di dati: data file) distinto
da quello delle istruzioni. Peraltro la distinzione dipende dal tipo di elaborazione che si vuole effettuare: per
esempio, le istruzioni di un programma sorgente (in linguaggio evoluto) sono i dati per il programma
compilatore, che lo trasforma in linguaggio macchina. B) In un sistema di calcolo i dati possono essere, con
un significato più ristretto, i valori di ingresso del problema e si distinguono pertanto da costanti e altri
parametri e dai risultati intermedi e finali. C) In un senso più generale i dati sono una delle categorie
dell'informazione che comprende anche testi, voce e immagini; in questo senso si parla di elaborazione di
dati, elaborazione dei testi, elaborazione della voce ed elaborazione delle immagini
DBMS
sigla dall'inglese Data Base Management System (sistema di gestione dei data base). Insieme di programmi
che effettua la memorizzazione e il reperimento di grandi quantità di dati residenti su memoria ausiliaria
Debugging
s. inglese usato in italiano come sm. In ambito informatico, processo di identificazione e rimozione di errori in
un programma. Utilizza strumenti particolari di programmazione che identificano e segnalano gli errori e li
correggono automaticamente. In alcuni casi con il debugging è possibile seguire un programma durante le
esecuzioni di prova, istruzione per istruzione, sospendere l'esecuzione in punti specificati, per l'esame di
risultati parziali, ecc
Decoder
s. ingl. usato in it. come sm. (prop. decodificatore). Dispositivo in grado di interpretare e tradurre un
messaggio in codice; rif. in partic. al meccanismo che permette di fruire della programmazione di
un'emittente televisiva accessibile solo a pagamento (pay-TV): per sintonizzarsi su questo canale è
necessario applicare il decoder. § La televisione digitale prevede una codifica a due livelli, relativi uno alle
trasmissioni, in chiaro o meno, offerte da un medesimo operatore, l'altro alle trasmissioni a pagamento. Per
captare e rendere intelligibili i segnali video in arrivo via etere sono perciò necessari appositi d., noti anche
come set top box, in genere predisposti, grazie al modem incorporato, anche alle applicazioni di televisione
interattiva, video on demand, ecc.; per le trasmissioni a pagamento occorre inoltre una smart card rilasciata
dal gestore a chi sottoscrive l'abbonamento. La smart card, inserita in un apposito alloggiamento segnala al
d. quali sono le trasmissioni per le quali è stato effettuato l'abbonamento e che perciò vanno messe in chiaro
Default
s. ingl. usato in it. come sm. In informatica, opzione assunta automaticamente da un elaboratore in
mancanza di indicazioni specifiche da parte dell'utente. Così, p. es., con “stampante di d.” si indicano la
periferica e il relativo driver di stampa normalmente utilizzati dall'elaboratore
Deframmentazione
sf. [sec. XX; de-+frammentazióne]. In informatica, operazione che riassegna aree contigue di memoria di
massa (disco) ai documenti memorizzati nel calcolatore. In situazioni di elevata frammentazione, infatti, uno
stesso documento si trova diviso in numerose parti memorizzate fisicamente in locazioni separate del disco.
In tale situazione, l'accesso ai dati contenuti nel documento può risultare rallentato, in quanto il calcolatore è
in grado di caricare nella memoria ad accesso diretto solo il contenuto di aree contigue della memoria di
massa. Dati logicamente contigui possono quindi trovarsi in locazioni lontane e il loro caricamento completo
può richiedere più accessi al disco
Demo
[abbr. inglese di demo(nstration), dimostrazione] sm. o f. inv. In informatica, versione ridotta di un
programma, solitamente comprendente le funzionalità principali dell'applicazione e un'interfaccia con
l'indicazione di tutte le funzionalità del programma completo. In genere viene utilizzata durante la fase di
sviluppo di un programma per mostrare ai committenti le fasi di avanzamento o, a sviluppo ultimato, come
presentazione del prodotto ai potenziali clienti
Desktop
s. ingl. usato in it. come sm. In informatica, in ambito hardware, designazione dei personal computer da
tavolo, ossia non portatili; in ambito software definisce lo sfondo di Windows '95™ e indica la scrivania sulla
quale posare gli oggetti mentre si lavora
DHTML
acronimo di Dynamic Hyper Text Markup Language, versione innovativa dell'HTML in grado di supportare le
nuove funzionalità dinamiche di creazione, gestione e impaginazione dei documenti Web
Dial Up
s. ingl. usato in it. come sm. Canale di comunicazione temporaneo tra due elaboratori realizzato tramite una
normale linea telefonica. Si ricorre al d. in mancanza di linea telefonica dedicata; si tratta di un accesso di
tipo indiretto, che utilizza la rete telefonica solo quando si rende necessario effettuare una connessione
DOS
acronimo dell'inglese Disk Operating System (sistema operativo su disco). Il sistema operativo più diffuso
per personal computer. Il termine DOS è spesso utilizzato per indicare l'MS-DOS acronimo dell'inglese
Microsoft Disk Operating System. Sistema operativo sviluppato dalla Microsoft Corporation dal 1981 per i
personal computer della IBM e compatibili. È estremamente diffuso sui personal computer; per facilitarne
l'uso, la Microsoft ha sviluppato su di esso l'ambiente operativo Windows, sistema operativo sviluppato negli
anni Ottanta dalla Microsoft, basato su caratteri dell'MS-DOS. Introdotto nel 1985, è diventato uno standard
per personal computer. Nel 1995 la Microsoft ha lanciato una versione più evoluta, Windows 95. Questa
versione, ha permesso un collegamento diretto a Internet tramite il browser Explorer. Ulteriori versioni di
Windows sono state lanciate nel 1998, nel 2000 e nel 2001 (Windows XP).
Download
s. ingl. usato in it. come sm. (propr. scaricare). In informatica, operazione on line consistente nel
prelevamento di file da un BBS o da un sito Web per scaricarli in un computer privato. Per ridurre i tempi di
trasferimento, in caso di file di rilevante dimensione, è necessario disporre di modem capaci di elevate
velocità di trasferimento dei dati. La risorsa che consente di effettuare i d. sono i siti anonymous FTP.
Drag and drop
loc. ingl. (lett. “trascina e lascia cadere”) usata in it. come sf. o come agg. In informatica, tecnica di
manipolazione con cui l'utente, dopo avere selezionato un oggetto, p. es. attraverso l'uso del mouse, lo
sposta sullo schermo, mantenendolo selezionato fino alla posizione desiderata dove viene rilasciato. Il
rilascio dell'oggetto provoca in genere l'assegnamento di qualche variabile o l'attivazione di un programma
Drive
Sistema elettromeccanico presente nei computer atto a registrare e a leggere dati su floppy disk o hard disk
in un computer
Driver
in informatica, programma che gestisce una periferica del calcolatore.
DVD
acronimo di Digital Versatile Disc, Disco digitale versatile). Supporto multimediale che
utilizza la stessa tecnologia di registrazione ottica dei compact disc, ma con una capacità
nettamente superiore in grado di integrare audio, video e informatica, concentrando per
esempio interi film con immagini e suono di altissima qualità nelle dimensioni di un CD. I
dischi DVD hanno una capacità da 4,7 a 17 Gbyte mentre la capacità di un CD-ROM attuale
va da 0,64 a 0,7 Mbyte. I dischi DVD sono disponibili nelle versioni DVD-R, scrivibili una
sola volta, e DVD-E, cancellabili e perciò riscrivibili più volte.
E
E-commerce
(abbreviazione di electronic commerce, propr. commercio elettronico). Sistema di compravendita di beni e
servizi attraverso Internet.
Elaboratore
o calcolatore elettronico, macchina elettronica (in inglese computer) capace d'immagazzinare informazioni,
di eseguire calcoli numerici e operazioni logiche secondo programmi prestabiliti su una gran massa di dati
ad altissima velocità e di fornire i risultati su supporti di varia natura. Costituisce lo strumento di base per
l'elaborazione dei dati.
I primi tentativi per realizzare un elaboratore risalgono a C. Babbage (1840), che descrisse una macchina il
cui schema, anche se mai realizzato, conteneva tutti gli elementi base di un elaboratore odierno. Il primo
elaboratore, chiamato Z3, fu realizzato in Germania nel 1941: era interamente elettromeccanico (impiegava
ca. 2600 relè) e l'elaborazione avveniva senza l'intervento dell'uomo. L'impiego dei dispositivi elettronici al
posto dei relè e delle parti meccaniche determinò la nascita dell'elaboratore elettronico, la cui evoluzione,
che prosegue ancor oggi, è convenzionalmente suddivisa in generazioni. Il primo elaboratore elettronico è
l'ENIAC, costruito a fini militari negli USA nel 1946; come tutti gli elaboratori detti della prima generazione
faceva uso di tubi termoelettronici ed era già possibile distinguere tra struttura fisica (hardware) e struttura
dei programmi elaborati per il suo funzionamento (software). Nella seconda generazione di elaboratori
(1958-1964) lo sviluppo hardware è caratterizzato essenzialmente dall'impiego di componenti elettronici allo
stato solido (transistori ecc.), di memorie a nuclei magnetici, di particolari dispositivi di input/output (I/O)
ovvero di introduzione ed estrazione dei dati. Con la terza generazione (1965) l'elaboratore da macchina da
calcolo si trasforma in sistema di elaborazione. In funzione del tipo di impianto, gli elaboratori della terza
generazione si definiscono per applicazioni gestionali, tecnico-scientifiche o di processo; a seconda del
modo di operare si distinguono elaboratori in tempo reale (real-time) e in partizione di tempo (time-sharing);
a seconda delle dimensioni e delle modalità operative si distinguono in mainframe (elaboratore di grandi
dimensioni, gestito da personale specializzato, in grado di servire contemporaneamente un numero altissimo
di utenti) e personal computer (elaboratore piccolo ed economico utilizzabile anche da operatori non
specializzati). Gli elaboratori sono di tre tipi: analogici, digitali e ibridi. Gli elaboratori analogici rappresentano
le grandezze fisiche mediante segnali elettrici continui e, per quanto molto rapidi, sono poco precisi. Gli
elaboratori digitali, o numerici, in pratica la quasi totalità degli elaboratori attuali, operano con variabili
numeriche binarie servendosi di dispositivi a due stati, come circuiti bistabili. Gli elaboratori ibridi sono
costituiti da elementi dei primi e dei secondi unendone quindi le caratteristiche di velocità e di precisione. Le
diverse parti dell'elaboratore operano in modo coordinato. Il programma, composto da un elenco di istruzioni,
viene immagazzinato nella memoria interna dell'elaboratore; da lì l'unità di controllo acquisisce le istruzioni
una dietro l'altra e attiva le parti dell'elaboratore che devono attuarle. I dati vengono introdotti nell'elaboratore
da memorie esterne, dette di massa, tramite organi d'ingresso e inviati alla memoria interna. Per comunicare
all'esterno i risultati contenuti in memoria, l'organo di controllo attiva le unità di uscita, quali stampanti su
carta, display a tubi catodici, incisori di dischi magnetici
E-mail
abbreviazione di electronic mail, ovvero posta elettronica (vedi lemma posta).
Emoticon
sequenze di caratteri ASCII, anche dette smiley o faccina, utilizzati nei messaggi di posta elettronica (e-mail)
per esprimere lo stato d'animo di chi scrive. Ruotate infatti di 90° in senso orario, queste sequenze
assomigliano a faccine con diverse espressioni; così, per esempio :-) indica che il mittente è allegro, ;-) una
strizzatina d'occhio, :-( tristezza, :-((( profonda tristezza, :-* un bacio, ecc
Emulatore
sm. (f. -trice) [sec. XIV; dal latino aemulātor-ōris]. Chi emula.
In particolare, in informatica, nome del dispositivo logico applicabile a un elaboratore elettronico per
assicurarne la compatibilità nel caso sia necessario eseguire programmi approntati per un altro elaboratore.
Il dispositivo emula le istruzioni dell'elaboratore per il quale è stato approntato il programma, determinando
una temporanea ristrutturazione circuitale di quello in cui si applica per renderlo idoneo a eseguire il
programma. Più in generale l'emulatore è l'imitazione di tutto o di parte del sistema di un elaboratore da
parte di un altro. Una situazione frequente è l'imitazione di un terminale di un elaboratore di grande potenza
mediante personal computer
ENIAC
sigla dell'inglese Electronic Numerical Integrator and Computer, nome del primo elaboratore elettronico,
progettato tra il 1943 ed il 1946 in Pennsylvania (USA). Realizzato nel 1946 a scopi bellici, fu impiegato fino
al 1955. Utilizzava 17.468 tubi termoionici (valvole), 4100 relè e occupava un intero piano del palazzo che lo
ospitava. Consumava 170 kWh e le valvole dovevano essere sostituite ogni tre, cinque giorni. Raggiungeva
una precisione di 2 decimillesimi nei calcoli interi e di 2 millesimi in quelli in virgola mobile.
EPROM
(sigla dall'ingl. Erasable Programmable Read-Only Memory). Chip di memoria utilizzata all'interno di modem
e telefoni cellulari per conservare i programmi che gestiscono gli apparecchi o nella realizzazione di cartucce
per videogiochi. L'EPROM, a differenza della tradizionale memoria ROM, che è di sola lettura, può essere
programmata in sede di fabbricazione e riscritta rimuovendo la copertura protettiva, esponendola a luce
ultravioletta
Escape
s. inglese usato in italiano come sm. (propr. fuga, scampo). In informatica, è il tasto Esc posto nell'angolo
superiore sinistro della tastiera; serve in genere per annullare un comando appena immesso o per tornare al
livello precedente di un menu.
Explorer
programma creato nel 1995 dalla Microsoft per la navigazione in rete Internet. Vera e propria componente di
Windows, destinata ad allargare in direzione della rete le funzionalità del sistema operativo, oltre alla sua
funzione fondamentale di browser, ovvero di strumento per sfogliare le pagine informative del World Wide
Web, il programma consente di ricevere e spedire posta, trasferire files, dialogare in diretta con altri utenti,
preparare semplici pagine da inserire in rete, ecc. Le sue prime versioni non sono state alquanto competitive
con il primo browser di Internet, Netscape, e solo nel 1996, con Internet Explorer 3, il programma è riuscito a
imporsi sul mercato, diventando il principale cardine delle politiche di sviluppo della Microsoft. Con le
versioni 4 e 5 il browser ha progressivamente allargato il supporto a una tecnologia denominata ActiveX, che
permette di distribuire in rete, accanto alle pagine informative, piccoli programmi destinati a migliorare
l'interazione fra i vari tipi di risorse di rete e le funzionalità interne di Windows. Attraverso il cosiddetto Active
Desktop, la tecnologia ActiveX è stata integrata nello stesso sistema operativo, permettendo p. es. di
appoggiare sullo sfondo di Windows finestre aperte su diverse risorse di rete. Inoltre, la versione 5 ha
incorporato in maniera particolarmente completa la capacità di visualizzare pagine in HTML dinamico e XML.
F
FAQ
acronimo di Frequently Asked Questions, domande poste frequentemente. In Internet, files presenti in
pratica in ogni sito che riportano le domande rivolte più di frequente con le relative risposte.
File
in informatica, indica un insieme di documenti (records) o di dati omogenei memorizzati sotto uno stesso
nome o etichetta.
Finger
s.ingl. usato in it.come sm. (propr. dito). In informatica, programma che, in Internet, permette di accertare se
un utente è in linea e, se non ci sono motivi di privacy o di segretezza, il suo vero nome e la data e l'ora cui
risale l'ultimo collegamento.
Firma (digitale)
(o digitale) procedura informatica che sostituisce la classica firma autografa con nome e cognome (così
come timbri, sigilli, punzoni o contrassegni) per rendere validi documenti, contratti o pagamenti inviati per via
telematica a un altro soggetto che sia attrezzato per riconoscerla. In Italia è stata introdotta dalla legge n.
127 del 15 maggio 1997, sulla semplificazione degli atti amministrativi. Punto fondamentale della procedura
è un sistema di doppie "chiavi" che consente al sottoscrittore (attraverso una "chiave privata") e al
destinatario (tramite una "chiave pubblica"), rispettivamente di rendere manifesta e di verificare la
provenienza e l'integrità del documento. Le "chiavi" sono rilasciate da apposite società di certificazione
(previste in un albo tenuto dall'AIPA, l'Autorità Informatica per la Pubblica Amministrazione). Le "chiavi"
saranno sotto forma di file o scheda con microchip. Ogni coppia di chiavi identificherà una persona o un
ufficio
Flat screen
Letteralmente schermo piatto, definisce tutti i tipi di display piatti, come gli schermi LCD o TFT (Thin Film
Transistor, si veda anche matrice attiva) , comunemente installati sui computer portatili. Questo termine è
utilizzato negli ultimi tempi anche per definire i monitor a tubo catodico che, grazie alla nuova tecnologia,
presentano uno schermo privo della classica bombatura.
Flag
s. ingl. (propr. bandiera) usato in it. come sm. In informatica, i f. sono un insieme di bit, riuniti in un registro,
che contengono informazioni sullo stato corrente dell'elaboratore e, in particolare, sul risultato di
un'operazione aritmetica o logica che è appena avvenuta. I f. comunemente presenti sono quelli di riporto di
segno, di zero, di parità e di controllo.
Floppy disk
dischetto flessibile rivestito di materiale magnetico usato come memoria di massa negli elaboratori
elettronici, principalmente nei personal computer.
Floppy disk drive
loc. ingl. (propr. unità a dischi flessibili). Dispositivo che effettua la lettura e la scrittura sui floppy disks ed è
costituito da meccanismi per la rotazione dei dischi, per il movimento delle testine di lettura e scrittura, per
l'automazione delle relative operazioni, nonché per la comunicazione con l'elaboratore. Può essere parte
integrante dell'elaboratore oppure esterno e a esso collegato.
Flow chart
loc. ingl. per diagramma di flusso; è la rappresentazione dettagliata di tutte le fasi operative che
costituiscono l'elaborazione.
Font
s. ingl. usato in it. come sm. In informatica, termine che identifica un certo tipo di carattere (p. es. Arial,
Courier, Helvetica, Times, ecc.); viene definito “scalabile” un f. capace di essere ingrandito o ridotto a
piacere in video e in stampa. I f. di questo tipo più diffusi sono quelli True Type e Adobe Type 1.
Foreground
s. ingl. usato in it. come sm. (propr. primo piano).In ambienti informatici caratterizzati dalla possibilità della
multiprogrammazione, è il processo che dispone della priorità più alta di tutti; in genere appare visivamente
in primo piano e interagisce con l'utente. I processi secondari, cioè con priorità minore, operano allora in
background.
Formattazione
sf. [dall'ingl. to format]. Neol. del linguaggio dei computer: ripartizione in varie sezioni di un disco di memoria
magnetica nelle quali registrare diversi files. Con lo stesso vocabolo sono anche indicate le direttive impartite
al computer per definire l'aspetto di un insieme organico di informazioni. P. es., per la stampa di una pagina
di testo: tipo del carattere, stile (grassetto, corsivo, sottolineato), margini del foglio, allineamento del testo (a
sinistra, a destra, centrato, giustificato), eventuale rientro dei paragrafi.
FORTRAN
inglese: FORmula TRANslator), in informatica, linguaggio di programmazione internazionale orientato ai
problemi che possono essere espressi mediante notazioni algebriche.
Freeware
s. ingl. usato in it. come sm. Software messo a disposizione gratuitamente, senza problemi di copyright e
usato a piacere.
FTP
acronimo di File Transfer Protocol, protocollo per il trasferimento di files. Risorsa applicativa del protocollo
TCP/IP che consente il trasferimento di files da un sistema a un altro. In Internet questo protocollo consente
il collegamento con elaboratori remoti per prelevare o inviare files di ogni genere. Gli anonymous FTP (FTP
anonimi) sono siti che consentono a chiunque il download di files: è sufficiente che l'utente usi come
identificativo (username o user id) “anonymous” e come password il proprio indirizzo e-mail.
G
Game port
s. ingl (game, gioco + port, porta) usato in it. come sm. Presa, posta in genere nella parte posteriore del
personal computer, destinata all'inserimento, se previsto, di un joystick, che consente di sfruttare in modo
ottimale i giochi elettronici
Gates, Bill
imprenditore e progettista di software statunitense (1955). Da giovanissimo ideò una versione semplificata
del linguaggio BASIC per personal computer. Nel 1975 fondò, con Paul Allen, la Microsoft, divenuta ben
presto una delle aziende leader nel mercato del software. Il suo nome è legato, in particolare, alla creazione
dei sistemi operativi MS-DOS (Microsoft-disk Operating System) e Windows (con le successive versioni
Windows 95, Windows 98 -integrato con il browser Internet Explorer-, Windows 2000, Windows ME). Nel
1997 Gates era accusato di concorrenza sleale e pratiche monopolistiche su richiesta della Netscape.
Condannato (2000) allo smembramento coatto dell'azienda, nel 2001 otteneva la cancellazione della
sentenza.
GIF
[Graphics Interchange Format] Formato d'interscambio per la grafica. Con questo acronimo si indica un
formato per comprimere e registrare su disco immagini di tipo bitmap anche ad alta risoluzione, con un
massimo di 256 colori. Il formato GIF è stato introdotto da CompuServe nel 1987 con l'obiettivo di
memorizzare immagini ad alta definizione ed elevata qualità, che potessero poi essere visualizzate su
computer di diversi tipi. La compressione viene eseguita per mezzo dello speciale algoritmo LZW (brevettato
da Unisys) che riunisce diverse formule matematiche; il fattore di compressione (per quanto riguarda la
riduzione di spazio occupato dai file. GIF) varia da 1,5:1 a 2:1.
Grazie alla sua versatilità, questo formato è ampiamente impiegato per gli elementi grafici delle pagine Web.
Groupware
s. ingl. usato in it. come sm. (propr. lavoro di gruppo). Il termine indica l'utilizzo di uno stesso complesso di
risorse e di informazioni da parte di un gruppo di persone per lo sviluppo di progetti complessi, per la
cooperazione a livello aziendale o interaziendale, ecc. I vari componenti del gruppo di lavoro, grazie alle
possibilità offerte da informatica e telematica, possono interagire anche trovandosi a migliaia di km di
distanza, come se si trovassero a stretto contatto all'interno di uno stesso edificio o di uno stesso ufficio.
GUI
acronimo di Graphical User Interface (Sistema di interazione tra elaboratore e utente di tipo intuitivo). Il G. è
stato sviluppato per facilitare l'uso del computer e l'accesso alle risorse mediante l'utilizzo di icone e di
elementi grafici autoesplicativi. L'introduzione di questa interfaccia grafica ha notevolmente semplificato
l'approccio all'utilizzo del computer perché non è più richiesta la conoscenza preventiva di specifici comandi
per eseguire determinate operazioni.
H
Hacker
pirata informatico che si introduce abusivamente, mediante il proprio computer, nella memoria o nel
programma di un altro calcolatore modificandone e alterandone le funzioni o raccogliendo notizie riservate.
Handle
s. ingl. (anche soprannome) usato in it. come sm. In informatica pseudonimo, chiamato anche alias,
utilizzato per comodità o desiderio di nascondere la propria identità da un utente che si iscrive in un sistema
informatico, dopo essersi registrato con il suo vero nome
Handshake
s. ingl. usato in it. come sm. (propr. stretta di mano). In informatica indica lo scambio di segnali relativi a
velocità di trasmissione dati e particolarità tecniche tra i modem di due elaboratori ogni volta che viene
effettuato un collegamento, per potersi connettere senza problemi
Hard copy
s. ingl. (propr. copia dura) usato in it. come sf. In informatica, copia stampata di un flusso di dati in uscita da
un elaboratore. Generalmente si riferisce alla riproduzione stampata della configurazione di dati che
appaiono sullo schermo di un videoterminale; i dati stampati mantengono lo stesso formato di apparizione
sullo schermo.
Hard disk
disco magnetico rigido usato come memoria di massa nei computer per immagazzinare dati. Al contrario del
floppy disk, esso non è estraibile dal computer: ciò permette di costruire con strettissime tolleranze il sistema
disco-testina di lettura, cosicché la registrazione dei dati può essere effettuata ad altissima densità
Hardware
insieme delle strutture materiali di un elaboratore elettronico; il termine è usato in contrapposizione a
software, insieme dei programmi che ne consentono il funzionamento
HD
acronimo di High Density, alta densità. In informatica, la sigla stampigliata sull'involucro dei dischetti per
segnalare la capacità di memorizzare dati fino a 1,44 Mb.
Housekeeping
s. ingl. usato in it. come sm. In informatica, l'insieme delle funzioni del sistema operativo che hanno come
scopo quello di mantenere l'efficienza nell'uso delle risorse del calcolatore. Un'operazione tipica, per
esempio, è quella della garbage collection (“raccolta della spazzatura”) che tende a ridurre gli sprechi di
memoria, eliminando l'informazione che non è più valida o richiesta e recuperando le celle non più impiegate
o contenenti informazioni superflue.
Hub
Detto anche concentratore, è un apparato che serve per collegare in una topologia a stella tutti i computer di
una rete. Una sua evoluzione sono gli switching hub, che consentono anche l'indirizzamento mirato dei dati
secondo la destinazione, consentendo maggiori prestazioni.
Host
Qualsiasi computer collegato a una rete, che sia fonte di informazioni e/o servizi interattivi. Ogni host ha uno
specifico identificativo locale (local host number) che, insieme all'indirizzo di rete (network number),
costituisce l' IP address univoco. Un host è ad esempio il provider utilizzato per collegarsi a Internet; la
connessione con l'host avviene tramite modem (protocollo PPP). Viene attribuito alla macchina dell'utente un
indirizzo IP che non varia per tutta la durata della connessione; durante questo periodo di tempo, lo stesso
PC dell'utente risulta un host. Un host in Internet viene indicato anche come "nodo".
HTML
acronimo di Hyper Text Markup Language (linguaggio per la marcatura di ipertesti). In informatica,
linguaggio di programmazione con il quale sono scritti tutti i documenti ipertestuali destinati al World Wide
Web.
I
Icona
Piccola immagine visualizzata sullo schermo che rappresenta un collegamento ad un programma o una
funzione del calcolatore. Attraverso le icone, il cui aspetto solitamente richiama la funzione svolta, si
possono controllare diverse azioni senza bisogno di conoscere né di digitare comandi da tastiera.
Implementazione
sf. [sec. XX; da implementare]. Le operazioni necessarie per la realizzazione pratica di un sistema di
elaborazione automatica dei dati partendo da funzioni completamente specificate. P. es. una “unità di
controllo”, concettualmente definita nei suoi dettagli, può essere implementata mediante
microprogrammazione (in alternativa alla soluzione mediante circuito). Nella terminologia software
(programmazione ) l'uso del termine indica le attività, a valle di tutte le principali scelte di progetto, che
possono venire svolte autonomamente fino alla messa in opera del programma funzionante. In particolare
un algoritmo viene implementato dal relativo programma. Vi possono essere i. differenti per ottenere versioni
del programma in diversi linguaggi od operanti su sistemi hardware diversi, e così via
Indirizzo
in informatica, posizione di una cella di memoria in un elaboratore in cui si trova un'informazione o in cui
un'informazione può venire scritta. Nei linguaggi di alto livello, il programmatore non deve normalmente
preoccuparsi degli indirizzi effettivi delle informazioni che vuole manipolare, mentre è indispensabile
specificare gli indirizzi nella programmazione in linguaggi di basso livello. Si hanno a disposizione diversi tipi
di indirizzo: l'indirizzo assoluto è un'informazione, generalmente numerica, che identifica una particolare
posizione di memoria. Per identificare una parola in un programma, con rif. alla posizione in esso occupata,
si usa invece un'informazione detta indirizzo relativo. Sulla rete Internet, inoltre, si definisce indirizzo
numerico (IP) quello che, composto di quattro cifre decimali intervallate da punti, individua un host e
identifica come indirizzo la URL di un documento.
Informatica
scienza a carattere interdisciplinare che riguarda tutti gli aspetti del trattamento dell'informazione mediante
elaboratori elettronici. La diffusione delle nuove tecnologie ha prodotto un'importante trasformazione nel
concetto stesso d'informatica: la trasmissione e il trasferimento delle informazioni vanno assumendo sempre
più un ruolo centrale nel sistema informatico, con pari importanza rispetto all'elaborazione dell'informazione,
al calcolo e al controllo dei processi. Per questa compenetrazione di informatica in senso stretto e
comunicazioni è stato coniato il nuovo termine telematica.
Input
in informatica è l'equivalente di ingresso dati, in contrapposizione a output (uscita).
INTEL
società leader nella progettazione e realizzazione di microprocessori su chip, fondata nel 1968 da R. Noyce,
creatore del circuito integrato. Diversi gli accordi stipulati: nel 1998 con la Kodak nell'intento di rimuovere le
barriere tra immagini digitali e foto tradizionali; nel 1999 con il governo cinese per promuovere lo sviluppo
dell'istruzione on-line e dello scambio di tecnologie. Nello stesso anno ha siglato un'alleanza con Hewlett
Packard e Nortel Network nei servizi in rete.
Interattività
in informatica, possibilità di interagire in modo attivo con il programma o con l'applicativo che si sta usando.
L'utente può modificare le modalità e la sequenza temporale del programma tramite apposite interfacce
(tastiera, mouse, touch screen ecc.). Nei videogiochi e nella realtà virtuale vengono sperimentati anche
mezzi d'avanguardia molto complessi (cabine di guida, visiere che permettono una visione tridimensionale
ecc.).
Interfaccia
In informatica, interconnessione o accoppiamento in grado di far operare insieme due parti di un sistema
aventi caratteristiche diverse.
Ambiente grafico che consente all'utente di impartire comandi al computer o gestire le funzionalità di un
software o un sistema di sviluppo attraverso strumenti intuitivi (finestra, puntatore comandabile con il
mouse).
Apparato utilizzato per mettere in comunicazione dispositivi di tipo diverso, all'interno di un sistema di
calcolo. Esempi sono le porte seriale e parallela del personal computer
Internet
acronimo di Inter(national) + net o di Inter Net(works), sistema di reti interconnesse le cui origini risalgono ad
Arpanet, sviluppata negli anni Sessanta dal Dipartimento della Difesa statunitense per consentire il
proseguimento delle attività militari e di governo in caso di attacco nucleare. Sviluppatasi grazie alla
cooperazione tra ditte informatiche e di telecomunicazione, banche, università ed enti di ricerca, Internet è
diventata una gigantesca ragnatela (World Wide Web) che collega, tramite vari nodi, milioni di computer
dislocati su tutto il pianeta. Collegandosi a Internet si hanno a disposizione, gratuitamente o a pagamento,
programmi, utilità, informazioni varie e si possono scambiare messaggi di posta elettronica (E-mail) e file di
ogni tipo. In genere è sempre a pagamento il collegamento tra computer dell'utente (user) e nodo facente
parte della rete (provider). Assieme alla TV via satellite o via cavo e alla telefonia, Internet costituisce uno
degli elementi delle cosiddette autostrade informatiche che in futuro costituiranno un sistema di
comunicazione globale.
INTERconnected NETworks] È chiamata "la rete delle reti", proprio perché composta da circa 100.000 reti
interconnesse, in più di 100 differenti nazioni. Nata nell'ambito di un progetto militare statunitense che aveva
lo scopo di creare una rete completamente distribuita (cioè senza nessun calcolatore "centrale"), in grado di
preservare le informazioni e garantire la comunicazione anche in caso di conflitto nucleare, è oggi
largamente impiegata soprattutto per scopi commerciali e di ricerca. L'enorme sviluppo e diffusione della rete
Internet è dovuto innanzi tutto alla nascita dei Web server e dello standard HTML, grazie ai quali è possibile
rendere accessibile a tutti gli utenti dotati di browser grafici, un'enorme quantità di informazioni di qualsiasi
genere (programmi, documenti testuali, immagini, file audio ecc.); inoltre gli stessi browser permettono una
facile e immediata consultazione dei gruppi di news (newsgroup) di USENET (User Network), la grande rete
che per anni, prima dell'avvento di Internet, ha messo a disposizione degli utenti un'enorme quantità di
informazioni. Ultimo, ma non per questo di minore importanza, motivo del successo di Internet è il fatto che
la rete consente la comunicazione in tutto il mondo tramite posta elettronica, messaggi in tempo reale e
addirittura in videoconferenza, al costo di una telefonata urbana.§§I calcolatori collegati a Internet utilizzano
il protocollo di comunicazione denominato TCP/IP. Attualmente fanno parte di Internet più di 20 milioni di
host, oltre a un numero molto elevato di sottoreti di diverso genere, connesse tramite gateway che
convertono TCP/IP nei protocolli da loro utilizzati. L'enorme diffusione di Internet e l'abitudine a collegarsi,
che è diventata quasi una moda anche tra gli utenti comuni, ha fatto nascere varie forme di attività
commerciali intorno a quello che si può considerare l'evento socio-tecnologico del nuovo millennio. In un
futuro ormai alle porte è previsto uno sviluppo esponenziale delle applicazioni interattive, dei servizi di
informazione gratuiti e a pagamento (con conseguente evoluzione del concetto di pubblicità e
sponsorizzazione) e dei negozi virtuali (e-commerce) , considerato anche il crescente miglioramento della
tecnologia dell'infrastruttura, conseguente agli investimenti che vengono e verranno operati in questo
settore.
Intranet
s. ingl. [da intra+net, rete interna], usato in it. come sf. Sistema di rete privata, interna a una azienda, che
utilizza i servizi della struttura di comunicazione locale LAN esistente e gli standard e i protocolli del World
Wide Web (WWW). Creata e gestita direttamente dagli utenti in base alle loro esigenze, è utilizzata per
facilitare la pubblicazione di documenti e per la comunicazione e la condivisione di informazioni all'interno di
un'azienda, in collegamento anche con le sedi distaccate.
IP
acronimo dell'ingl. Internet Protocol (Protocollo per l'interconnessione). Protocollo di comunicazione senza
connessione grazie al quale i pacchetti in cui il messaggio è suddiviso vengono trasferiti dalla sorgente alla
destinazione in modo trasparente attraverso la rete.
Ipertesto
sm. [sec. XX; iper- + testo, sul modello dell'ingl. hypertext]. Nel linguaggio informatico, insieme organico che
comprende testi, immagini, tabelle e altri eventuali documenti, tra i quali è possibile istituire collegamenti
logici e richiami partendo da un messaggio espositivo di base: un'enciclopedia multimediale con un ricco
apparato di i. integrativo. L'i. costituisce uno strumento informatico capace di organizzare le informazioni in
modo da consentire una loro lettura non sequenziale grazie a una struttura a reticolo che permette di
passare a documenti contenenti informazioni diverse mediante uno specifico collegamento (link). I
documenti raggiunti mediante link possono contenere oltre ai testi scritti anche immagini, video, suoni; in tal
caso si parla di i. multimediali
J
Java
in informatica, linguaggio di programmazione sviluppato da Sun Microsystems per applicazioni interattive.
Attualmente costituisce il linguaggio di programmazione usato per scrivere le applicazioni interattive note
come applet, che sono in grado anche di creare suoni, animazioni grafiche e giochi interattivi. Dato che può
essere eseguito su qualsiasi hardware, purché munito di interprete J., è potenzialmente utilizzabile da un
qualsiasi dispositivo intelligente di elettronica di consumo, dal network computer ai set top box collegati ai
televisori, nelle auto e nelle fabbriche. J. è anche un sistema di sicurezza, in quanto previene possibili danni
derivati al computer da applet create da eventuali hackers. Infatti, se si scarica dalla rete un'applet, il sistema
di sicurezza di J., il Java Virtual Machine, interviene permettendo all'applicazione di funzionare solo nella
memoria transitoria del computer, negandole l'accesso al disco rigido, alle connessioni in rete e ad altre
risorse del sistema. L'applet, quindi, viene trattenuta in una specie di “recinto” di sicurezza fino a quando J.
non ha verificato se sia stata scritta correttamente nel suo linguaggio o se sia una di quelle certificate, cioè
affidabili.
Joystick
dispositivo di ingresso a un elaboratore il cui movimento, guidato dalla mano, provoca lo spostamento del
cursore (o di altro simbolo) sullo schermo di un monitor. È una manopola, alta all'incirca 20 cm, montata
verticalmente su una base, che viene spostata dalla posizione verticale nella direzione in cui si vuole
muovere il cursore sullo schermo. È largamente usato nei videogiochi e per alcune applicazioni
professionali, come la progettazione assistita da calcolatore (Computer-Aided Design).
JPG o JPEG
sigla dell'ingl. Joint Photographic Experts Group (Gruppo congiunto di esperti per la fotografia). In
informatica, formato grafico, di dimensioni più ridotte del GIF, molto usato su Internet. Riducendo lo spazio
occupato delle immagini, può visualizzare un elevato numero di colori.
L
LAN
sigla di Local Area Network (rete di comunicazione locale). Rete di comunicazione che collega una serie di
elaboratori (nodi) situati in una zona circoscritta (entro il raggio di 10 km). Con la rete LAN è possibile
disporre, con velocità di trasmissione che vanno dai centomila ai cento milioni di bit al secondo, di
programmi di utilità centralizzati; basi di dati, periferiche comuni, ecc. Un insieme di protocolli (regole per lo
scambio di messaggi) governa il flusso delle informazioni nella rete. Un'applicazione LAN all'interno di
un'organizzazione si rivolge a tre livelli. Il gruppo di lavoro costituisce l'unità di base ed è costituito da un
numero limitato di utenti che utilizzano personal computer intercomunicanti. L'area dipartimentale è
caratterizzata dalla disponibilità di minielaboratori ed è formata da alcuni gruppi di lavoro. Infine
l'organizzazione può disporre di un mainframe (o grande elaboratore) in cui sono centralizzati i dati aziendali
e dove è possibile svolgere le elaborazioni più potenti. Il modello di riferimento di una rete LAN è costituito
da tre ambienti: A) L'ambiente applicativo, che fa riferimento sia ai terminali, sia agli elaboratori, alle
periferiche e ai programmi e comprende anche i sistemi operativi in cui questi operano. B) Il sistema di
trasporto delle informazioni, comprendente sia i nodi della rete locale a cui si collegano gli utenti, sia i
protocolli che permettono il trasporto delle informazioni. C) Il sistema di cablaggio e di distribuzione, che
comprende l'insieme dei cavi, dei fili, delle torrette e delle canaline che permettono di realizzare la
connessione fisica fra i dispositivi hardware che costituiscono il sistema informativo e su cui viaggiano i
segnali elettrici (cavi coassiali o doppini telefonici) od ottici (fibre ottiche) che rappresentano i dati di utente. I
due tipi di LAN più diffusi sono le reti Ethernet e Token Ring.
Lap Top
agg. ingl. (propr. portatile) usato in it. come sm. Indica elaboratori portatili di dimensioni minime, funzionanti
anche a batteria o ad accumulatore e dotati di schermo retroilluminato a cristalli liquidi o al plasma che si
ripiega sulla tastiera come un coperchio. I l., grazie anche al peso assai ridotto (ca. 2 kg), possono essere
usati dovunque; i modelli più evoluti sono dotati di schermo a colori e di hard disk.
Lettore
in informatica, apparecchiatura elettronica per la traslazione di un tipo d'informazione da un supporto di
memorizzazione a un altro: per esempio, lettore di caratteri magnetici, lettore di codici a barre, lettore ottico
ecc.
Linguaggio
Sistema di simboli, di caratteri e di regole che permettono di formare il programma con il quale è possibile
comunicare con un elaboratore e guidarne il funzionamento per fini prestabiliti. Si distinguono due grandi
classi di linguaggi: i linguaggi di programmazione, o simbolici, con i quali vengono scritti i programmi di
origine, e i linguaggi di macchina, o assoluti, nei quali devono essere tradotti i primi al momento della
presentazione all'elaboratore. Tra i linguaggi simbolici si distinguono diversi livelli: considerando il linguaggio
di macchina come linguaggio di livello zero, i linguaggi assemblatori, che provvedono alla traduzione dal
linguaggio di programmazione al linguaggio di macchina, sono detti linguaggio di livello uno, i comuni
linguaggi algoritmici sono detti linguaggi di livello due, i linguaggi algoritmici orientati a particolari problemi
sono detti linguaggi di livello tre.
Link
s. ingl. (propr. anello) usato in it. come sm. 1) Unità di misura di lunghezza del sistema inglese, pari a di
chain; equivale a.0,201168 m. 2) In informatica, operazione automatica di unione di due o più moduli di un
programma (o moduli di libreria, di funzione, ecc.) compilati separatamente per ottenere un programma
eseguibile. Inoltre si intende per l., nell'ambito del World Wide Web, collegamento di un ipertesto; si tratta di
parola o immagine appositamente designata, che quando viene selezionata, consente il passaggio, mediato
dal Web browser, a un documento collegato (testo, file sonoro, immagine o filmato), che a sua volta può
contenere altri link.
Linker
s. ingl. (propr. correlatore) usato in it. come sm. In informatica, programma che unifica parecchi moduli
compilati separatamente eliminando le chiamate fra di essi. Quando un programma viene compilato si ha un
prodotto intermedio nel quale è necessario incorporare materiale di libreria contenente procedure e routine
standard e aggiungere qualsiasi altro modulo fornito dall'utente. L'intero processo di compilazione in cui si
inserisce l'azione del l. prevede la preparazione del programma sorgente tramite un editor, la traduzione di
questo attraverso un compilatore, per trasformarlo in programma oggetto, il collegamento attraverso un l. del
programma oggetto con le routine di libreria, e il caricamento del programma così ottenuto su memoria
centrale per la sua esecuzione.
Linux
in informatica, sistema operativo di tipo Unix destinato ai personal computer, introdotto nel 1991 dal
finlandese Linus Torvalds e sviluppato successivamente da centinaia di persone in tutto il mondo collegate
tra loro in Internet. Questo sistema operativo è completamente gratuito con caratteristiche equivalenti a
quelle dei sistemi operativi commerciali. La sua diffusione è stata finora limitata dalla complicata procedura
di installazione che esige una certa competenza informatica. Nel 2000 Linux ha stipulato un'alleanza con
IBM.
LISP
in informatica, acronimo di List Processor, elaboratore di liste. È uno dei linguaggi di programmazione più
usati nell'ambito dell'intelligenza artificiale
Loading
s. ingl. (propr. caricamento) usato in it. come sm. In informatica, la operazione svolta dal loader; l. program,
programma di caricamento, sin. di loader.
Login
s. ingl. [da log, propr. registrare + in, dentro] usato in it. come sm. Procedura che permette il collegamento
con qualsiasi servizio in linea o relativa all'apertura di una sessione di lavoro in un sistema informatico.
Logo
in informatica, linguaggio di programmazione che costituisce il più diffuso linguaggio didattico.
Loop
s. ingl. (it. ciclo iterativo) usato in it. come sm. In informatica, sequenza di istruzioni o di operazioni ripetuta
più volte dall'elaboratore sino a che non si verifica una condizione prefissata
M
Macro
sf. per macroabbreviazione. In informatica, insieme di istruzioni che vengono eseguite richiamando un nome
o premendo un tasto. Il ricorso alla m. risulta utile nel caso di una procedura da eseguire di frequente che
richiede l'esecuzione di un certo numero di operazioni secondo una precisa sequenza, come p. es. nel caso
di una procedura di login.
Mainframe
elaboratore di prestazioni molto elevate, che può servire contemporaneamente un grandissimo numero di
utenti
Masterizzatore
in elettronica, apparecchio che consente di incidere o duplicare CD-ROM.
Matrice attiva
Detta anche TFT, è la tecnologia utilizzata nella costruzione di monitor LCD, dove ogni singolo pixel è in
grado di emettere luce propria, migliorando la nitidezza e la luminosità delle immagini da qualsiasi angolo di
osservazione.
Memoria
Organo di sistema di elaborazione in grado d'immagazzinare informazioni e di renderle a richiesta. Si hanno
due classi principali di memoria: le memorie interne e le memorie periferiche o ausiliarie. Le prime, parte
integrante dell'unità centrale di elaborazione, sono completamente elettroniche, mentre le seconde sono in
genere memorie dinamiche. Le prime, inoltre, sono memorie ad accesso casuale, cioè memorie in cui le
diverse posizioni vengono raggiunte in un tempo brevissimo indipendente dalla posizione prescelta. Le
seconde, invece, sono memorie ad accesso sequenziale, in cui il tempo di accesso dipende dalla posizione
Messaggio
in informatica, gruppo di caratteri e/o simboli mediante i quali si trasmette un'informazione.
Metamotore
sm. [meta-+motore]. Tipo di motore di ricerca, presente sulla rete Internet, che non dispone di un vero e
proprio database interno. Questo è capace di reperire informazioni, interrogando, contemporaneamente, un
numero variabile di motori di ricerca con una sola query.
Microcalcolatore
sm. [micro-+calcolatore]. In informatica, detto anche con termine ingl., microcomputer, elaboratore digitale
completo di piccole dimensioni costituito da un insieme di circuiti elettronici ad alto livello di integrazione e
avente come elemento base un microprocessore.
Microprocessore
chip a semiconduttore che svolge i compiti dell'unità centrale (CPU) di un elaboratore. Un microprocessore
consiste almeno di un'unità logico-aritmetica e di un'unità di controllo. Nei personal computer contiene l'ALU
(unità aritmetico-logica), registri di memoria, bus di trasferimento dati. I microprocessori sono impiegati in
una miriade di dispositivi presenti in ogni campo della vita quotidiana: calcolatrici tascabili, dispositivi di
regolazione e di misura, carte di prelievo contante e carte di credito, funzioni di controllo di processi
industriali, orologi, elettrodomestici, telefoni cellulari, televisori e auto. Caratterizzano il microprocessore la
velocità, il numero di bit dei registri, l'architettura, nonché il set di istruzioni, che può essere sia cablato sia
microprogrammato. È la combinazione di queste caratteristiche e non solo la velocità che determina le
prestazioni di un microprocessore. L'architettura del microprocessore è diventata via via più complessa.
Questa determina sia le modalità di funzionamento interno (esecuzione delle istruzioni in sequenza, con
sovrapposizione, in parallelo; elaborazione su numeri interi, su numeri a virgola mobile, su vettori), sia la
flessibilità di interfacciamento con l'esterno (opzioni di ingresso/uscita per trasmissioni sequenziali e
parallele, per collegamenti con altri processori, per interfacce interattive, ecc.). Il set di istruzioni,
rappresentato in ogni microprocessore nelle sue sottoclassi (istruzioni aritmetiche, logiche, di controllo del
programma, di ingresso/uscita), si è ampliato e potenziato man mano che il progresso tecnologico lo
rendeva possibile, superando il centinaio di istruzioni nei microprocessori CISC (Complex Instruction Set
Computer: elaboratore con set di istruzioni complesso). In relazione all'adozione di architetture più
complesse, sono stati realizzati microprocessori RISC (Reduced Instruction Set Computer: elaboratore con
set di istruzioni ridotto) che, grazie all'impiego di poche istruzioni semplici a esecuzione molto veloce e a una
serie di accorgimenti progettuali (in particolare l'impiego di memorie cache-nascoste), hanno superato le
soluzioni CISC più avanzate.
Microsoft
industria statunitense di informatica, che sviluppa, produce e commercializza sistemi operativi, linguaggi e
programmi applicativi per microelaboratori. Fondata nel 1975 da B. Gates e P. Allen, si affermava con la
commercializzazione del sistema operativo MS-DOS. Successivamente sviluppava il sistema operativo
Windows, un software che completava MS-DOS. Gli sviluppi più significativi del gruppo, negli anni Novanta,
sono stati legati alla realizzazione di prodotti Internet. Nel 1995 veniva lanciato il browser Internet Explorer
che, in quanto fornito gratuitamente, era oggetto di una vicenda giudiziaria che in un primo tempo (2000)
condannava Gates per pratiche monopolistiche allo smembramento dell'azienda. Presente anche nelle
telecomunicazioni, la Microsoft, nel 1996, ha dato vita alla MsNBC, canale di news via cavo, e l'anno dopo
ha acquistato la Web Tv Networks, società che produce un sistema per l'accesso a Internet tramite schermo
televisivo. Negli anni successivi ha rafforzato l'integrazione tra Internet e telecomunicazioni e, agli inizi del
sec. XXI, si è lanciata nel mercato delle informazioni stream, cioè di quei prodotti (notiziari, concerti, film,
eventi sportivi) diffusi su Internet in tempo reale.
MIDI
acronimo di Musical Instrument Digital Interface, metodo per creare e ascoltare musica digitale assistiti da un
computer equipaggiato con una scheda sonora (soundblaster) o collegato a uno strumento musicale dotato
di interfaccia MIDI. È appunto la scheda sonora che ha consentito di operare questo sviluppo, i cui primi
passi risalgono al Moog, sintetizzatore di suoni elettronici degli anni Settanta. Mentre per registrare una
canzone con un normale file in formato wav occorrevano finora una decina di Mbyte, per di più con un
risultato qualitativo non paragonabile a quanto consentito da MIDI, con questo sistema è il computer stesso
che decodifica le informazioni software e suona. Il protocollo MIDI registra infatti i movimenti della tastiera
invece dei suoni prodotti. In questo modo è possibile, in pochissimo spazio, registrare un'esecuzione e farla
poi ripetere automaticamente da qualsiasi strumento MIDI o da una scheda sintetizzatrice. Proprio il fatto di
registrare le azioni del musicista invece dei suoni, impedisce ai file MIDI di contenere tracce vocali. Il
mercato è in grado di offrire schede sonore di tutti i tipi e di tutti i prezzi, da semplici basi musicali ad altre
che trasformano il personal computer in una piccola orchestra, ad altre ancora che consentono di realizzare
composizioni e orchestrazioni estremamente complesse, con la possibilità di riprodurre centinaia di
strumenti.
MIME
acronimo di Multipurpose Internet Mail Extension, protocollo per il trasferimento di files multimediali, ossia
non A.S.C.I.I.; mediante posta elettronica. Questi files vengono codificati in A.S.C.I.I. e richiedono, per
ritornare nella forma originaria, di essere decodificati una volta giunti a destinazione.
Minicomputer
sm. inv. [mini-+computer]. In informatica, elaboratore elettronico di piccole dimensioni: la categoria “mini” è
intermedia fra quella dei personal computer e quella dei più potenti elaboratori, i mainframes, cui si
avvicinano i “supermini”. Un m. può essere utilizzato da un numero di utenti compreso fra 4 e 100 ed è
quindi tipico di un piccolo centro di calcolo.
Minifloppy
s. ingl. (propr., minidisco flessibile) usato in it. come sm. In informatica, indica i dischi flessibili della
dimensione di 51/4 pollici impiegati come memorie periferiche rimovibili (capacità 0,7-1,4 Mbyte, pari a
diverse centinaia di cartelle dattiloscritte). Si differenziano dai floppy disks (di dimensioni 81/2 pollici) in
quanto richiedono dispositivi di lettura/scrittura di dimensioni ridotte; essi vengono utilizzati soprattutto negli
elaboratori da tavolo (personal computer). Sul mercato, nell'ambito della stessa classe di elaboratori, è assai
utilizzato un altro tipo di dischi flessibili delle dimensioni di 3 1/2 pollici detti microfloppy e di capacità anche
superiore (fino a 2 Mbyte).
MIPS
sigla dall'ingl. Million Instructions Per Second (milioni di istruzioni al secondo). Unità di misura utilizzata per
indicare la velocità alla quale un elaboratore esegue le istruzioni. Di solito viene associata ai mainframes e ai
superelaboratori anche se ultimamente, grazie all'evoluzione rapidissima della tecnologia dei semiconduttori,
si è estesa anche ai personal computer.
Modem
nella tecnica delle telecomunicazioni, apparecchiatura per la modulazione e la demodulazione dei segnali,
che permette di trasmettere su linee telefoniche i segnali numerici con cui opera un elaboratore elettronico.
Modularità
In informatica, caratteristica di un sistema hardware o software che ne permette l'espansione con l'aggiunta
progressiva di moduli.
Monitor
terminale video che permette di controllare in diretta lo svolgimento di un avvenimento o di un fenomeno.
Oltre che in campo specificamente televisivo, le apparecchiature monitor hanno trovato largo impiego nel
controllo (monitoraggio) di processi produttivi e, in medicina, dell'andamento di funzioni fisiologiche (battito
cardiaco, respirazione, attività cerebrale ecc.)
Morphing
tecnica di computer grafica, usata in cinematografia, videogiochi, pubblicità e opere multimediali in genere.
Consiste nel passare gradualmente da un'immagine a un'altra in modo che chi osserva il risultato finale
percepisca un cambiamento il più regolare e continuo possibile. Tipici sono i morphing tra volti umani e musi
di animali: data l'immagine di partenza e quella finale, i passaggi intermedi vengono elaborati da speciali
programmi
Motore di ricerca
programma che consente di trovare uno specifico dato all'interno di un data base. È la principale risorsa per
il reperimento semplice e immediato di informazioni su Internet. I motori di ricerca si basano su due differenti
criteri di gestione delle informazioni: per indici e per directory. I primi sono enormi data base, che
contengono dati strutturati, relativi a milioni di pagine Web o articoli di vari newsgroup. Questi motori di
indicizzazione sono aggiornati dai cosiddetti spider, software che esplorano continuamente la rete,
raccogliendo i fattori di riconoscimento di ciascun documento, organizzati poi dal motore in modo da
consentire una ricerca per parole. Motori di indicizzazione sono Altavista e Hot Bot. I motori di ricerca per
directory si avvalgono, invece, di elenchi ipertestuali di siti, organizzati gerarchicamente per categorie e
sottocategorie. Pertanto classificano i singoli siti, indipendentemente dalle pagine contenute, permettendo di
effettuare una ricerca per parola chiave oppure partendo da macrocategorie. A differenza degli indici, le
directory sono frutto di una catalogazione umana delle risorse presenti su Internet. Capostipite di questi
ultimi motori di ricerca è Yahoo!
Mouse
termine inglese, ormai entrato nell'uso comune, con cui si indica un dispositivo che, collegato al computer,
permette di muovere rapidamente il cursore sullo schermo. È così possibile ridurre, in alcuni casi
notevolmente, l'uso della tastiera
MP 3
sigla dall'ingl. Motion Picture Expert Group - Audio Layer 3 dello standard per la compressione di file audio
e, quindi, della memorizzazione di musica digitale. Realizzato nel 1987 da Dieter Seitzer dell'Università
tedesca di Erlangen e dal Fraunhofer Institut Integrierte Schaltungen, ha avuto inizialmente una scarsa
diffusione a causa delle modeste prestazioni dei microprocessori e dei modem con cui venivano trasferiti i
file, ma nel 2000 ha raggiunto una diffusione tale da preoccupare fortemente le case produttrici di brani
musicali in ragione della difesa dei diritti d'autore. Mp3 comprime un file musicale di 12 volte, mantenendone
la qualità digitale di un compact disc. La tecnologia di compressione consiste nell'eliminare i suoni coperti
contemporaneamente da altri e quelli emessi su frequenze non percepibili dall'orecchio umano. Ciò rende
possibile trasferire brani musicali dalla rete Internet (gratuitamente o a pagamento) e ascoltarli con un
computer o con appositi lettori portatili. Anche i programmi per la riproduzione di questi file musicali possono
essere prelevati gratuitamente da Internet
MPEG
acronimo dall'inglese per Motion Picture Experts Group (Gruppo di esperti per immagini in movimento). Serie
di norme emanate dall'ISO (International Standards Organization, Organizzazione internazionale per gli
standard) per la codifica di immagini in movimento e dell'audio associato. Esistono diverse versioni dello
standard M. che si differenziano per il tipo di applicazioni cui si rivolgono.
MS – DOS
acronimo dell'inglese Microsoft Disk Operating System. Sistema operativo sviluppato dalla Microsoft
Corporation dal 1981 per i personal computer della IBM e compatibili. È estremamente diffuso sui personal
computer; per facilitarne l'uso, la Microsoft ha sviluppato su di esso l'ambiente operativo Windows.
Multimediale
comunicazione che fa ricorso a diversi strumenti spesso integrati fra loro e complementari. In particolare, in
elettronica, un sistema di elaborazione multimediale deve essere capace di impiegare contemporaneamente
diversi tipi di informazione in modo interattivo. Un tale sistema presenta all'utente, tramite monitor e
speakers, una grande ricchezza di informazioni con varie modalità: testi, grafica, animazione, suono, voce
sintetizzata elettronicamente. Un sistema multimediale interattivo è considerato tale se è in grado di fornire
contemporaneamente almeno tre di queste modalità, assicurando nello stesso tempo un grado sufficiente di
interattività, ovvero la capacità di comunicare in entrambe le direzioni, da e verso l'utente. Due sistemi a
grandissima diffusione sono la televisione e il personal computer, che contengono elementi parziali di un
sistema multimediale interattivo: la televisione offre un'enorme quantità di informazioni e scarsa interattività;
il personal computer è in grado di conversare con l'utente con modalità complesse e numerose (tastiera,
mouse, ecc.).
Multimedialità
diffusa soprattutto negli anni Novanta, specialmente su CD-ROM la multimedialità è in fase di sviluppo
esponenziale. I prodotti multimediali, fruibili interattivamente su un calcolatore personale, contengono testi,
immagini fisse (fotografie, disegni), immagini in movimento (filmati e animazioni) e suoni e possono spaziare
dai videogiochi alle enciclopedie, da monografie su particolari argomenti a prodotti didattici. Nelle opere
multimediali vi è in genere sia una componente strettamente informatica sia editoriale; questo vale
soprattutto per i CD-ROM enciclopedici e monografici (editoria su CD-ROM o multimediale). Un recente
sviluppo della multimedialità è costituito dalla realtà virtuale (Virtual Reality) che permette all'utente di
esplorare a suo piacimento ambienti tridimensionali.
N
NAND
nell'algebra booleana, operatore logico costituito da un prodotto AND e una negazione NOT.
In informatica, circuito o porta logica che realizza la corrispondente funzione logica.
Napster
società statunitense fornitrice dell'omonimo software per ascoltare, scaricare, scambiare documenti musicali
in formato Mp3 su Internet. Il programma, ideato da Shawn Fanning nel 1999, permette attraverso un
sistema peer-to-peer di ascoltare file audio del data base di Napster, arricchito da file di scambio.
L'opportunità di scaricare gratuitamente da Internet brani musicali, solo previa registrazione dell'utente, ha
richiamato l'attenzione sul problema dei diritti d'autore e ha minato alla base l'industria discografica, pertanto
nel 2000 la società è stata messa sotto processo per violazione della legge sul copyright. Condannata nel
febbraio 2001 dalla Corte d'appello federale degli Stati Uniti, Napster per scongiurare la chiusura è stata
costretta ad attivare dei filtri che impediscono agli utenti di scaricare file audio coperti da copyright
Netscape Communication
società fondata nel 1994 da un gruppo di programmatori distaccatisi dal National Center for Supercomputing
Applications (NCSA), il centro di ricerca dell'Università di Urbana Champaign nell'Illinois, responsabile dello
sviluppo di Mosaic, il primo programma grafico per la navigazione nel World Wide Web, realizzato nel 1993.
Nello stesso anno la N. ha distribuito gratuitamente sulla rete Internet il suo browser Navigator, che ha
riscosso un clamoroso successo, trasformando la società in uno dei colossi del panorama informatico
mondiale, tanto che l'elevata quotazione in borsa delle sue azioni nel 1995 ha rappresentato un vero e
proprio caso economico e finanziario. Successivamente, nonostante l'immissione sul mercato di un nuovo
concorrenziale browser della Microsoft, Internet Explorer, e la perdita progressiva di importanti quote di
mercato, la N. ha sviluppato nuove versioni del browser, mantenendo la sua caratteristica di prodotto
multipiattaforma (con funzionalità analoghe, non solo per Windows, ma anche per Macintosh e per sistemi
Unix come Linux). Navigator è stato, infatti, il primo browser che ha permesso, attraverso il modulo
denominato Cosmo Player, la navigazione in rete in realtà virtuale (RV), e ha accresciuto la sua funzionalità
con un gran numero di programmi: p. es., visualizzatori per i documenti di tipo PDF (Portable Data Format)
utilizzato dai diffusi programmi di impaginazione professionale della Adobe; per i filmati QuickTime; per le
animazioni realizzate con i prodotti Macromedia, per i moduli didattici realizzati in Asymetrix Toolbook. I
produttori di N., inoltre, con una notevole capacità previsionale e innovativa hanno introdotto rapidamente il
supporto per il linguaggio Java, svolgendo un lavoro pionieristico nel campo dei 'miniprogrammi su pagina'
realizzati in Javascript. Alla fine del 1998 la società è stata acquisita da American Online.
Network Computer
macchina strutturata per navigare in Internet, richiamando dalla rete il software necessario all'utente.
Comprende tastiera, mouse e un minimo di memoria per il software di base. Non ha dischi fissi e fa a meno
di CD-ROM. È Internet che gli permette di consultare milioni di pagine sul World Wide Web, scaricare film e
videoclip musicali. Lo standard network può essere adottato da dispositivi come telefoni, televisori, agende
elettroniche, nonché macchine definite “elettrodomestici elettronici”, concepite per sfruttare determinate
funzioni di Internet
Nickname
s. ingl. usato in it. come sm. (propr.soprannome). Chiamato anche alias, è un nome utilizzato per facilitare la
gestione di un indirizzario relativo a un sistema di posta elettronica. Per evitare di digitare un determinato
indirizzo, con l'eventuale possibilità di incorrere in errori, ogni volta che si intende inviare un messaggio a
una certa persona, o gruppo di persone, ecc., dopo aver abbinato all'indirizzo il vero nome del destinatario,
basta assegnare a questo un n.; a questo punto, ogni volta che si desidera spedire un messaggio a
quell'indirizzo sarà sufficiente digitare il n. e il sistema provvederà all'invio.
NOR
in elettronica digitale, operatore logico e corrispondente circuito elettronico. È costituito dall'insieme dei
circuiti OR e NOT
NOT
in elettronica digitale, operatore logico e corrispondente circuito elettronico. Produce il valore (o livello) 1
quando l'operando vale 0 e viceversa.
Noteboock
personal computer portatile di peso non superiore ai 4 kg, comprensivo dell'alimentatore e delle batterie
O
OCR
in informatica, iniziali di Optical Character Recognition (lettore di caratteri ottici). Tale dispositivo analizza,
riconosce e codifica informazioni stampate o scritte in caratteri alfanumerici. I moderni O. sono in grado di
leggere la maggior parte dei documenti stampati e scritti con calligrafia molto precisa e regolare, con un
elevato grado di riconoscimento. Tuttavia il riconoscimento ottico della normale calligrafia corsiva è un
obiettivo non ancora raggiunto.
Off line
loc. ingl. (propr. fuori linea). In informatica, di unità di elaboratore non controllata direttamente dall'unità
centrale; il termine è contrapposto a on line, in linea.
On line
loc. ingl. (propr. in linea) usata in it. come agg. In informatica, detto di unità di elaboratore direttamente
controllata dall'unità centrale; il termine è contrapposto a off line, fuori linea.
Operando
In informatica, dato numerico sul quale si effettua un'operazione aritmetica o logica. Per estens. le parti di
un'istruzione che specificano le entità sulle quali si effettua l'operazione. P. es., nell'istruzione: ADD A, B
ADD è il codice dell'operazione, mentre A e B sono gli o. e possono essere nel caso più semplice i numeri
da sommare, più in generale i contenuti di registri o memorie che il sistema di decodifica dell'istruzione è in
grado di reperire e acquisire.
Operatore booleano
Ogni linguaggio contiene un insieme di caratteri speciali che, usati sui valori, riescono a modificarli, a
confrontarli, a usarli in operazioni aritmetiche e a combinarli. Gli operatori b., infatti, eseguono operazioni
logiche, formalizzando le relazioni di esclusione e inclusione nell'algebra b., e per questo motivo hanno
trovato larga applicazione in sistemi di elaborazione di ricerche per parole chiave, dette appunto ricerche b.,
come nei data base o nei motori di ricerca su Internet. I principali operatori b. sono AND, OR e NOT e le loro
funzioni variano a seconda della ricerca che si vuole effettuare: p. es. se si vogliono cercare informazioni
relative a “editoria italiana”, formulando la query con AND posto tra i due termini si troveranno documenti in
cui sono presenti entrambe le parole; allo stesso tempo, usando la funzione OR, i documenti restituiti
conterranno almeno uno dei due termini indicati o entrambi; digitando, invece, “editoria NOT italiana” si
otterrà in risposta l'elenco di tutte le risorse che si riferiscono solo alla parola editoria, ma non alla parola
italiana.
OR
in elettronica digitale, operatore logico e corrispondente circuito elettronico. Produce il valore (o livello) 1
quando uno o entrambi gli operandi valgono 1, altrimenti il risultato è 0.
OS
in informatica, abbreviazione ingl. di sistema operativo (Operating System). Sistema organico di programmi
di controllo per un elaboratore che gestisce le funzioni interne dell'elaboratore stesso e fornisce all'utente un
insieme di opzioni per controllare le operazioni dell'elaboratore e dei relativi dispositivi periferici. Un sistema
operativo svolge almeno i seguenti compiti: accetta i comandi da tastiera, penna elettronica, mouse; crea,
copia, distrugge archivi su disco; carica programmi e archivi; gestisce il video e le periferiche in generale
(stampante). I sistemi operativi più noti sono il CP/M, il DOS, il Macintosh, l'OS/2 e l'UNIX.
OS/2
sistema operativo sviluppato da IBM e Microsoft per elaboratori utilizzanti i microprocessori Intel 80286 e
80386. È visto come il successore del MS-DOS di cui supera in particolare i limiti di indirizzamento della
memoria (640 kilobyte). L'OS/2 permette l'elaborazione di più compiti (multitasking) ed è dotato di
un'interfaccia a finestra con memoria a icone, utilizzabile con il mouse.
Ottale
agg. [da otto]. In informatica, numerazione o., sistema di numerazione in base 8 impiegata nell'elaborazione
dei dati.
Output
termine che esprime il risultato di un'operazione, di una scelta, di un'azione.
In informatica, equivalente di uscita. Si contrappone a input.
Overflow
s. ingl. (propr., straripamento) usato in it. come sm. In informatica, superamento della capacità di un
dispositivo di elaboratore, p. es. della capacità di un registro o un'area di memoria. Nell'esecuzione di una
somma, p. es., il risultato può avere un numero di cifre tale da non poter stare nell'area di memoria a esso
destinata. Quando il risultato di un'operazione aritmetica produce o. viene attivato nell'elaboratore un
apposito indicatore.
Overlay
s. ingl. (propr. copertura) usato in it. come sm. In informatica, sezione di programma contenuta in una
memoria periferica che viene trasferita in memoria centrale solo al momento dell'utilizzo. Il termine si
riferisce al fatto che vari segmenti di programma possono occupare successivamente la stessa area di
memoria.
P
Package
s. ingl. (propr. pacco, pacchetto) usato in it. come sm. In informatica, p. applicativi, o pacchetti di software,
insiemi di programmi predisposti per risolvere un problema di carattere generale in tutti i casi particolari in cui
si presenta. Si hanno, p. es., p. per il controllo di una data produzione, p. per calcolare gli stipendi dei
dipendenti di un'azienda, ecc.
Palm Top
loc. ingl. (da palm, palma, e top, propr. vetta, cima) usata in it. come sm. Computer portatile, detto anche
“palmare” per le sue dimensioni ridotte (pesa soltanto 350 g comprese le batterie) che consentono di poterlo
utilizzare tenendolo in mano. Dotato di word processor per la creazione di documenti, con annesso controllo
ortografico e dizionario, offre, oltre alle normali funzioni di agenda elettronica e calcolatrice, la possibilità di
inviare e ricevere fax e messaggi di posta elettronica, collegarsi a Internet, consultare banche dati e archivi
aziendali. I comandi, oltre che con la tastiera, possono essere dati toccando lo schermo con un'apposita
penna che consente, in modelli più sofisticati, di riconoscere la scrittura manuale.
Password
s. ingl. usato in it. come sf (propr. parola d'ordine). In informatica, sequenza di caratteri alfanumerici richiesta
per accedere a un elaboratore quando sono attive procedure di sicurezza.
PC
sigla dall'ingl. personal computer (elaboratore personale). In informatica, elaboratore a largo spettro di
applicazioni utilizzato da un singolo utente alla volta. La scala di applicazione dei P. spazia da economici
mezzi domestici e di divertimento con memoria limitata a macchine estremamente sofisticate con processori
potenti, memoria a disco di grande capacità, sistemi grafici a colori con elevata risoluzione. Negli ambienti
scientifici e finanziari, il P. è un'alternativa concreta ai terminali connessi a sistemi a partizione di tempo, in
quanto la loro connessione in rete permette la trasmissione di dati con altri elaboratori.
Peer to peer
loc. ingl. (propr. da pari a pari; paritetico) usata in it. come sm. In informatica, tipologia di architettura di rete
network computer, in cui drivers, files e stampanti di ogni computer sono messi a disposizione di altri, senza
utilizzare un server dedicato. Il ruolo del server viene ridotto a vantaggio dei clients e allo stesso tempo ogni
computer può eseguire anche programmi applicativi locali.
Penna
in informatica: a) penna luminosa, dispositivo fotoelettrico usato in coppia con un terminale video per
richiamare sullo schermo informazioni, per modificare quanto appare su di esso o per introdurre informazioni
nell'elaboratore scrivendo sullo schermo come su una lavagna; in questo ultimo caso si possono tracciare
anche dei grafici che, opportunamente digitalizzati, vengono poi introdotti nell'unità centrale. La penna
luminosa, inizialmente alternativa al mouse, che si è dimostrato più competitivo, è tornata sul mercato in
conseguenza dello sviluppo e della diffusione di elaboratori personali portatili molto compatti (palm top)
sempre più potenti, capaci in particolare di ospitare complessi programmi di lettura della scrittura e per i quali
le dimensioni di una tastiera funzionale rappresentano un problema; b) penna scanner, dispositivo utilizzato
per memorizzare in un apposito archivio indirizzi di siti Web e di posta elettronica.
Pentium
microprocessore informatico sviluppato dalla Intel Corporation. Rappresenta un'evoluzione rispetto ai
processori della famiglia 80x86, ma si distingue dai precedenti modelli per la potenza di calcolo
notevolmente superiore e per un'architettura interna adatta ai sistemi operativi a 32 bit, quali Windows 95,
Windows 98 e Windows 2000. Attualmente i Pentium più potenti possono lavorare con frequenze di oltre 800
MHz.
Periferica, unità
in informatica, macchina che opera in collegamento e sotto il controllo dell'unità centrale. Le periferiche più
importanti sono: a) le periferiche di ingresso: tastiera, mouse, penna ottica, tavoletta elettronica; b) i
visualizzatori: schermo video a raggi catodici e quelli piatti a cristalli liquidi o al plasma; c) le stampanti (ad
aghi, a getto di inchiostro, laser) e i plotter (registratori a penna); d) le unità di memorizzazione di massa a
disco (ottico o magnetico) e a nastro (magnetico); e) le interfacce analogico-digitali per il comando di
apparecchiature (motori) e per i modem; f) i lettori ottici, i sintetizzatori della voce e altri.
Personal computer
(inglese: elaboratore personale), elaboratore basato su un singolo microprocessore. Poiché è in grado di
svolgere istruzioni ricevute mediante un programma, il personal computer è un elaboratore autonomo e
autosufficiente, a differenza dei terminali che sono collegati a mainframe. Nella sua configurazione standard
un personal computer è costituito da un'unità centrale di elaborazione (CPU, Central Processing Unit) basata
sul microprocessore che presiede al controllo di tutto il sistema e all'esecuzione delle operazioni aritmeticologiche. La memoria centrale è realizzata con circuiti integrati tipo RAM (Random Access Memory, memoria
ad accesso casuale): in essa si può quindi raggiungere direttamente qualsiasi posizione o cella di memoria.
La memoria di massa (memoria esterna) dei personal computer è generalmente costituita da floppy disk e
da dischi rigidi, o hard disk, contenuti in unità sigillate a tenuta di polvere. I dispositivi più usati nei personal
computer per introdurre dati sono la tastiera e il mouse; i dati sono visualizzati su un video.
Photo CD
(in sigla, PCD), disco ottico che contiene un certo numero di fotografie in forma digitalizzata, acquisite
tramite scanner, ciascuna delle quali è stata archiviata con le informazioni necessarie per riprodurla con
diverse risoluzioni. In futuro, i p. potranno anche contenere suoni e filmati video. Per poter consultare un
PCD si possono utilizzare quasi tutte le piattaforme hardware dotate di un lettore CD-ROM XA o anche il
televisore, equipaggiato con appositi dispositivi.
PING
in informatica, acronimo di Packet InterNet Groper. Programma che consente di controllare se un
determinato host della rete sia effettivamente attivo; richiede semplicemente di digitare il nome dell'host o il
relativo indirizzo numerico.
Pipeline
s. ingl. (propr. oleodotto) usato in it. come agg. e sf. In informatica, è usato per indicare una nuova
architettura di microprocessori, che permette di far lavorare in modo simultaneo, o parallelo, le varie parti che
compongono una CPU. In un'architettura pipeline i vari stadi che processano le istruzioni si comportano
come una catena di montaggio in cui il lavoro avviene simultaneamente. Ciascun elemento della catena,
terminata la propria operazione, passa il dato alla stazione successiva. In un processore con architettura
pipeline, per ciascun ciclo di clock, ci può essere un'istruzione in fase di caricamento, una in decodifica, una
in fase di trasferimento, una in esecuzione mentre il risultato sta per essere scritto in uscita. In un'architettura
semplice può essere caricata nella pipeline solo un'istruzione per volta, perché esiste solo una stazione per
ciascuna fase del processo. In una pipeline superscalare le stazioni sono duplicate e possono eseguire per
ciascun ciclo di clock più istruzioni contemporaneamente. La pipeline di un Pentium PRO può contenere fino
a cinque istruzioni contemporanee per ciascun ciclo di clock. Nel Pentium 4 la INTEL ha utilizzato anche una
tecnologia detta NetBurst, che raddoppia gli stadi della pipeline (20 nel Pentium IV contro i 10 del Pentium
III), in modo da ridurre il tempo di esecuzione di ciascuna fase del processo ed aumentare la frequenza di
clock.
Pixel
(dall'inglese: picture element, elemento d'immagine), termine usato quando ci si riferisce a immagini
presentate in forma digitale. All'interno del pixel, in genere quadrato o rettangolare, non può variare né la
luminosità né il colore.
PL/1
sigla dell'ingl. Programming Language 1. In informatica, linguaggio di programmazione realizzato con lo
scopo di fondere le caratteristiche dei linguaggi gestionali come il COBOL e dei linguaggi scientifici come
l'ALGOL e il FORTRAN
Plotter
s. ingl. (da to plot, tracciare) usato in it. come sm. In informatica, registratore a penna per disegni di alta
qualità su carta che può essere comandato dal sistema di input/output di un elaboratore. I p. sono in pratica
composti da un braccio comandato da un amplificatore orizzontale e da uno stilo comandato da un
amplificatore verticale, per cui lo stilo può assumere qualunque posizione su un piano xy. I p. sono una
periferica molto diffusa degli elaboratori personali, possono essere a colori e hanno prestazioni diverse in
termini di dimensioni, precisione e velocità.
Plug-in
Estensione aggiuntiva che aumenta le potenzialità di un programma. Plug-in molto noti sono, ad esempio,
quelli che consentono ai browser di visualizzare dati in formato flash. Negli ultimi anni ci si sta avviando a
una standardizzazione del formato dei plug-in (ad esempio quelli dedicati alle applicazioni di fotoritocco e
grafica bitmap), in modo che possano essere utilizzati da altri applicativi.
Portale
in informatica, sito che rimanda ad altri siti. Naturale evoluzione dei motori di ricerca, un portale contiene
anche un gran numero di informazioni e notizie (dalle previsioni del tempo agli oroscopi, ecc.), offrendo al
contempo a chi si collega la possibilità di personalizzarlo in base alle proprie esigenze.
Posta elettronica
Possibilità di inviare e scambiarsi messaggi per mezzo di elaboratori collegati in rete. Con la diffusione delle
reti telematiche e in particolare di Internet è oggi possibile inviare tramite il proprio terminale di rete
messaggi, anche complessi ed elaborati come documenti grafici, brani musicali e altro. La posta elettronica,
o e-mail, gode dei notevoli vantaggi di essere rapidissima e molto economica: qualsiasi messaggio può
essere infatti spedito in tempo reale in qualunque parte del mondo al costo di una telefonata urbana. Il primo
utilizzo della posta elettronica è avvenuto nel 1972; con il tempo si sono poi diffusi programmi che ne hanno
migliorato la gestione. Un indirizzo di posta elettronica è caratterizzato dalla presenza del simbolo @ (at),
collocato tra il nome scelto dall'utente e il dominio corrispondente all'host, il computer sul quale
materialmente risiede la casella postale e che spesso coincide con il fornitore di accesso a Internet. Alla fine
del XX secolo, sulla rete Internet, l'uso dell'e-mail si è intensificato grazie al fenomeno della posta gratuita,
freemail, che consiste nell'aprire gratuitamente, su un sito predisposto, una casella di posta elettronica.
Numerosi sono i siti Internet che forniscono un servizio di posta gratuita sui propri server: uno dei primi è
stato Hotmail. Nel 1999, inoltre, il software Mercury Mobile ha reso possibile, grazie a un sistema di sintesi
vocale, ascoltare e inviare e-mail dal proprio telefono fisso o mobile.
P.P.P.
sigla dell'ingl. Point to Point Protocol, protocollo di comunicazione punto a punto che consente a chi non
dispone di un accesso diretto a Internet il collegamento alle risorse della rete mediante un modem e la
normale linea telefonica.
Processore
sm. [dall'ingl. processor, der. da to process, trattare, elaborare]. In informatica, unità di elaborazione; termine
generale usato per ogni unità capace di svolgere operazioni su dati; talvolta è usato come sin. di unità
centrale.
Programma
in informatica, insieme ordinato di istruzioni che comandano l'esecuzione di operazioni di trattamento dati. Le
principali famiglie di programmi sono, oltre ai linguaggi di programmazione, i programmi per il trattamento dei
testi (word processor), i programmi per la gestione di archivi (data base), i fogli elettronici (spreadsheet), i
programmi di presentazione grafica, i programmi amministrativi e contabili, i programmi per la progettazione
e la produzione assistita da calcolatore (CAD e CAM), i programmi per il calcolo scientifico e i programmi di
comunicazione (telematica).
Programmatore
sm. (f. -trice) [sec. XX; da programmare]. 1) In informatica, persona responsabile della preparazione di
programmi a partire dalle relative specifiche di programma.
PROLOG
acronimo di PROgrammazione LOGica. In informatica, linguaggio di programmazione di alto livello utilizzato,
con il LISP, lo Small Talk e altri nell'intelligenza artificiale. Il P., sviluppato in Europa, è basato sulle tecniche
di logica matematica, è interattivo e dichiarativo, ossia non procedurale. In sostanza con una serie di
enunciati si dichiarano fatti e relazioni e con l'interrogazione si accede alla base dei dati così costituita.
L'interprete P. possiede un motore inferenziale, ossia un metodo per trarre deduzioni e procedure e
collegare l'interrogazione con la base di conoscenze per costruire una risposta. Il P. è il linguaggio più usato
per i sistemi esperti, sistemi interattivi uomo-macchina con competenze specializzate per risolvere problemi
in aree definite (medicina, ingegneria, chimica, matematica).
PROM
sigla dell'inglese Programmable Read Only Memory (memoria a sola lettura programmabile). È una memoria
elettronica di tipo ROM il cui contenuto non viene però definito una volta per tutte dal costruttore, ma può
essere programmato dai singoli utenti.
Prompt
s. ingl. (propr., incitamento, suggerimento) usato in it. come sm. In informatica, simbolo o frase che appare
sullo schermo di un elaboratore. Esso indica all'utente che l'elaboratore attende un comando. Il p. spesso è
costituito da simboli mnemonici che indicano il tipo di dato atteso (p. es. enter name).
Protezione (del software)
In informatica, i reati di pirateria rendono necessaria la protezione del software e dei dati, protezione che può
avvenire a diversi livelli, a costi e complessità crescenti. La protezione delle copie, il procedimento più
semplice, ha la controindicazione di ostacolare il mercato delle copie autorizzate e di essere facilmente
aggirabile. La validazione, ossia la tecnica per cui il software controlla il diritto d'uso dell'utente tramite chiavi
e cablaggi personalizzati, offre una protezione intermedia che può essere aggirata scoprendo il codice di
validazione. L'impiego della crittografia offre la massima sicurezza, ma richiede un hardware specializzato (i
criptoprocessori), allunga i tempi e comporta problemi per la gestione delle chiavi. La decifrazione richiede
una chiave specifica, diversa e indipendente da quella di codifica, che va personalizzata a un hardware
abilitato. Rientrano nelle tecniche di protezione le apparecchiature biometriche che misurano caratteristiche
uniche, come le impronte digitali, la retina, la geometria della mano, oppure la voce, la dinamica della firma,
il ritmo di battitura su una tastiera.
Protocollo
Insieme di regole che definiscono le modalità di scambio dei dati tra entità in comunicazione su un network.
In altre parole, il protocollo è una sorta di "linguaggio", che tutti gli interlocutori devono comprendere per
poter comunicare, il che, trasposto nel mondo dei computer, significa che è necessario installare lo stesso
protocollo (che fisicamente è un programma) su tutte le macchine che si desidera mettere in
comunicazione.§§Generalmente, con il termine "protocollo" si indica in realtà un insieme di protocolli: nella
classificazione OSI ne esiste uno diverso per ogni servizio che un certo livello dell'architettura deve
compiere: ci sono protocolli per l'accesso al mezzo fisico (CSMA/CD) , per l'instradamento del messaggio (3)
nella / rete, per il controllo degli errori di trasmissione, e così via. Ad esempio, un protocollo di trasporto (che
garantisce la comunicazione affidabile e si trova al livello 4 di OSI), sarà un programma che implementa
regole simili alle seguenti:§§• se arriva un messaggio da inoltrare sulla rete, lo divido in datagram e li passo
al livello 3;§§• per ogni pacchetto inviato faccio partire un cronometro (timeout). Se entro un certo tempo non
mi arriva il messaggio di conferma dal destinatario, invio di nuovo il pacchetto;§§• quando mi arriva un
pacchetto di dati, controllo il suo numero di sequenza. Se ho già ricevuto tutti i pacchetti precedenti, lo
consegno al livello 5, altrimenti aspetto;§§• quando mi arriva un pacchetto dal livello 3, controllo di non
averlo già ricevuto, nel qual caso lo scarto.§§Il protocollo maggiormente utilizzato su Internet è il TCP/IP,
che sostituisce il livelli 1,2,3 e 4 della classificazione OSI.
Provider
s. ingl. (propr. fornitore) usato in it. come sm.. In informatica, società o istituzione che affitta parte dei suoi
collegamenti con la rete Internet ad altre società e privati, per fornirne l'accesso. Il p., da un punto di vista
prettamente tecnico, è un insieme di computer connessi sia con dei modem pronti a ricevere le chiamate
degli utenti sia con Internet.
Q
Query
s. ingl. (dal verbo to query, chiedere) us. in it. come sf. inv. In informatica, interrogazione di un data base,
organizzata secondo i criteri stabiliti nella creazione della banca dati; il motore di ricerca, recuperata
l'informazione richiesta in base ai dati inseriti dall'utente, genera una pagina HTML di risposta.
Qwerty
schema standard della tastiera delle macchine da scrivere o degli elaboratori. Venne realizzato più di un
secolo fa per rallentare la velocità di battitura, evitando così il blocco dei vecchi sistemi meccanici. Tale
schema prende il nome dalle prime sei lettere alfabetiche in alto a sinistra della tastiera. Oggi, dato che
l'elettronica ha permesso velocità di battitura molto elevate, la tastiera Q. viene sostituita dalla “Dverak”.
Alcune case produttrici di elaboratori offrono oggi tastiere provviste di un interruttore che permette il
passaggio da un tipo all'altro.
R
RAM
sigla dell'inglese Random Access Memory (memoria ad accesso casuale), memoria elettronica che consente
le operazioni di scrittura e di lettura di informazioni negli elaboratori.
Random
agg. ingl. (propr., fatto a caso, fortuito) usato in it. come agg. e sm. 1) Nelle telecomunicazioni, termine
tecnico comunemente impiegato per designare un involucro realizzato con materiale tale da non attenuare le
radioonde (p. es. fibra di vetro o speciali resine) che viene impiegato per proteggere le antenne radio dagli
agenti atmosferici come pure, in qualche caso, per ridurne la resistenza al vento.
2) In informatica, per r. access storage o r. access memory, memoria ad accesso casuale, v. memoria.
Ratio
s. lat. usato in it. come sf. (propr. rapporto). In informatica, rapporto tra files trasmessi (upload) e prelevati
(download). In genere è usato nei BBS per individuare gli utenti intenzionati solo al prelievo di dati.
Real time
loc. ingl. che in informatica equivale a tempo reale
Realtà virtuale
tecnica di programmazione e di uso dei computer mirata alla simulazione di ambienti e situazioni non
riproducibili con i normali strumenti di riproduzione audiovisuale. Si definisce 'virtuale', quindi, una sequenza
di immagini e suoni interamente generata dal computer e in grado di avvicinarsi talmente alla realtà da
sembrare vera. La realtà virtuale viene impiegata principalmente in cinematografia nella creazione di effetti
speciali e nelle simulazioni per addestramento aeronautico e militare.
Record
In informatica, elenco base di un flusso di dati di consultazione, composto a sua volta da un certo numero di
elementi di informazione tra loro collegati. R. fisico, insieme di dati che può essere letto e registrato con una
singola operazione di lettura e di registrazione (schede perforate, nastro magnetico, ecc.); r. logico, r.
contenente un insieme logicamente compiuto di dati.
Recovery
In informatica, ripristino, ripresa dell'elaborazione da un punto precedente in occasione di un errore o di un
guasto all'elaboratore.
Refresh
Frequenza con cui viene aggiornato il contenuto delle memorie dinamiche.
Frequenza con la quale la scheda video è in grado di aggiornare l'immagine inviata al monitor.
Registrare
In informatica, inserire nuove informazioni in un record o trasferire dati da un certo supporto di memoria a un
altro.
Remote access
Applicazione grafica funzionante in ambiente Windows 95/98, NT, che guida l'utente nell'accesso a un server
remoto (tipicamente un Internet provider) , consentendo contemporaneamente di impostare i parametri di
configurazione del proprio modem. Una volta definiti tutti i parametri necessari per attivare la connessione
(numero di telefono, indirizzo del DNS, ecc.), questi possono essere salvati su un file, richiamabile
direttamente ogni volta che si ha la necessità di stabilire la stessa connessione. In questo modo le
operazioni preliminari all'attivazione della connessione vengono eseguite automaticamente e in modo rapido
Remoto
In informatica, elaboratore r., o elaboratore satellite, elaboratore elettronico collegato generalmente a
distanza a un altro di maggiori dimensioni rispetto al quale adempie funzioni di elaboratore a filtro,
effettuando pre- e postelaborazioni dei dati che arrivano e vengono trasmessi tra l'unità centrale e, p. es.,
l'insieme dei terminali compresi in una certa area; svolge anche lavori di elaborazione in proprio.
Report
Rapporto. Metodo di presentare dati in modo fomattazione e organizzato. È molto utilizzato nei programmi di
gestione dei database.
Reset
s. ingl. (da to reset, rimettere a posto) usato in it. come sm. In informatica indica il rimettere a zero,
ripristinare, risettare (p. es. nel senso di rimettere a zero un contatore).
Rete
In elettrotecnica, circuito formato da un certo numero di elementi connessi tra loro; i punti di connessione si
chiamano nodi || Rete di telecomunicazioni: insieme di apparati telefonici di utente, posti di pubblica utenza
telefonica, stazioni di radiocomunicazione, centrali di commutazione e d'instradamento interurbano e delle
relative linee d'interconnessione radiotelefoniche. La Rete (v. Internet)
RFC
acronimo per Request For Comment. In informatica, serie di documenti di lavoro emessi dalla comunità di
ricerca e sviluppo di Internet e aggiornati di frequente, con spiegazioni di carattere tecnico sui protocolli,
sulle tematiche di trasmissione dati, sulla gestione ed evoluzione della rete, ecc.
Riversamento
In partic., in informatica, trasferimento di un insieme di informazioni, registrate su un dato supporto, su un
altro supporto o dello stesso tipo o di tipo diverso. P. es., se le informazioni sono registrate su un nastro, si
può effettuare il r. su un altro nastro mediante il segnale elettrico di uscita del registratore. Per r. della
memoria o mappa della memoria, v. mappa.
Riversare
In informatica, trasferire mediante riversamento: r. una registrazione. 5) Nella tecnica di registrazione
(sonora o visiva), trasferire suoni o immagini da un supporto (pellicola o nastro magnetico) a un supporto
diverso, o uguale, ma di standard diverso (p. es. da nastro Video 8 a nastro VHS).
Robot
termine (dal ceco robota, lavoro forzato, nome dato dallo scrittore K. Čapek ad automi che nel suo dramma
R.U.R. agiscono come operai) che designa macchine capaci di compiere azioni complesse, previste da un
determinato programma e senza il diretto controllo dell'uomo. Nella moderna produzione industriale si è
giunti a un accordo di massima per definire robot solo macchine multiscopo, adatte a movimentare pezzi e
utensili secondo sequenze spaziali e temporali variabili in funzione delle esigenze e degli ambienti in cui si
trovano a operare. Il robot industriale è cioè una macchina programmabile in modi differenti secondo le
esigenze di lavorazione. Dal punto di vista costruttivo, i robot sono macchine dotate di parti mobili con organi
di presa specializzati per eseguire lavorazioni. L'azionamento delle parti mobili (elettromagnetico, idraulico o
pneumatico) è comandato da un elaboratore programmabile in funzione delle mansioni alle quali s'intende
adibire il robot. Le parti mobili sono generalmente costituite da bracci meccanici articolati alle cui estremità è
posto un dispositivo di serraggio o un utensile (verniciatore, saldatore, per lavorazioni meccaniche ecc.).
Robotica
sf. [sec. XX; da robot]. Moderna tecnica di progettazione e di costruzione di robot.
ROM
Read Only Memory] Memoria di sola lettura non volatile utilizzata per conservare informazioni vitali per il
funzionamento del computer, come ad esempio nei BIOS e nelle periferica che necessitano di una
inizializzazione fisica. Si tratta di chip di silicio dove la posizione degli elettroni nella struttura funge da
interruttore e quindi da selettore 1-0, che consente di memorizzare i dati in formato binario. Si veda anche
EPROM, EEPROM.
Router
s. ingl. usato in it. come sm. In informatica, elaboratore adibito all'interconnessione di reti eterogenee, come
LAN e WAN, e all'instradamento dei dati lungo il percorso più favorevole, determinato in base a specifici
algoritmi.
Routine
In informatica, termine usato per indicare un programma, o un sottoprogramma, o una sezione di un
programma.
S
T
U
W
X
Y
Z