DIZIONARIO INFORMATICA A ADA [dal nome di Ada Lovelace, figlia del poeta inglese G. Byron]. In informatica, linguaggio ad alto livello sperimentato dal Dipartimento della Difesa degli U.S.A. È strutturato a blocchi con meccanismi per trattare informazioni astratte e per affrontare in maniera modulare problemi anche in tempo reale. Ha la potenzialità di modellare sistemi distribuiti su larga scala e di assicurare il controllo da parte dell'utente durante l'esecuzione del programma. Il linguaggio è molto potente e pensato per un uso il più generale possibile. Add-on s. ingl. usato in it. come sm. (propr., accessorio). In informatica, termine che riferito all'hardware indica un qualsiasi dispositivo da aggiungere all'elaboratore, mentre riferito al software, indica un modulo per integrare o estendere le funzionalità di un dato programma base. ADSL sigla dall'ingl. Asymmetrical Digital Subscriber Line. Tecnologia di compressione di segnali che consente la trasmissione dati ad alta velocità sul tradizionale doppino di rame delle linee telefoniche. Tra le possibilità offerte dall'A., una velocità di collegamento a Internet da 30 a 90 volte superiore, un suono che avverte dell'arrivo di posta elettronica e, contemporaneamente, la normale prosecuzione delle comunicazioni telefoniche. Nell'ambito delle tecnologie DSL, è già pronta una nuova tecnologia (denominata 3dSL) che consente di quadruplicare (da 1,5-2 a 8 Megabit al secondo) la velocità consentita dall'A. e fornire servizi come televisione digitale e video on demand. Alfanumerico in informatica, di informazione codificata in caratteri sia alfabetici, sia numerici. Alimentatore nella tecnica, dispositivo atto a fornire energia o materiale a un altro sistema. elettronica ed elettrotecnica Negli impianti elettrici ed elettronici, insieme di dispositivi, o di parti di circuito, atto a fornire energia elettrica con determinate caratteristiche di tensione, corrente e frequenza per consentire il corretto funzionamento di utilizzatori quali televisori, computer, ecc. Gli alimentatori a tensione e corrente costanti si dicono anche stabilizzatori. Gli alimentatori di alta tensione, utilizzati nei tubi a raggi X, nei tubi a raggi catodici dei televisori e dei radar, sono generalmente costituiti da duplicatori o da moltiplicatori di tensione. Con l'affermarsi dell'elettronica di potenza, cioè di componenti allo stato solido che consentono il passaggio di elevate correnti, si sono sviluppati i cosiddetti alimentatori switching, in cui i componenti elettronici vengono impiegati come interruttori che commutano ad alta frequenza. AND in informatica, operatore logico e corrispondente circuito elettronico. Produce il valore (o livello) 1 solo nel caso in cui entrambi gli operandi valgano 1, altrimenti il risultato è 0. Apple società leader nell'ideazione e produzione di personal computer. Nata come casa costruttrice di piccoli elaboratori destinati prevalentemente ai videogiochi, la Apple si aprì anche ai mercati degli elaboratori per uso domestico e didattico. Nel 1983 iniziò la produzione di nuovi PC (Macintosh) basati sull'impiego diretto del monitor tramite un telecomando di puntamento (mouse) e sull'introduzione di una complessa serie di accorgimenti volti a creare un dialogo uomo-macchina che rende più accessibile l'uso del PC. L'intera linea di prodotti Apple ha trovato accoglienza particolarmente favorevole nel mondo della grafica e dell'editoria, ma si va via via imponendo anche in altri settori consimili. Nel 1991, la società ha concluso un accordo con la IBM, sua principale rivale, al fine di creare prodotti più sofisticati per quanto riguarda l'hardware e il software, che permettano il dialogo tra sistemi finora incompatibili tra loro. Tra il 1994 e il 1996 la società ha stipulato accordi con la International Business Machines Corporation e con la Motorola Incorporated. Nel 1997 il colosso statunitense ha siglato un accordo con la Microsoft e si è impegnato nella vendita diretta di computer. Applet s. ingl. (abbreviazione di Internet application) usato in it. come sf. In informatica, programma, generalmente di piccole dimensioni, scritto in Java e compilato su di un server, associato a un link in una pagina HTML; può essere eseguito all'interno del browser che ha scaricato la pagina. L'utilizzo del linguaggio di programmazione Java, che permette di ottenere la proprietà “compila una volta, esegui ovunque” (compile once, run everywhere), rende l'esecuzione del programma indipendente dalla piattaforma e dal sistema operativo del calcolatore in cui risiede il browser (client). Al contrario di una normale applicazione, l'esecuzione della a., che avviene integralmente nella macchina in cui è stata scaricata, non può portare alla lettura o alla scrittura di file nel calcolatore client, ma solo nel server, evitando in questo modo di danneggiare il client. L'uso principale delle a. risulta perciò quello di fornire un'interfaccia locale per l'interazione col server o piccoli dimostrativi di applicazioni più complesse. Arpanet sigla dell'ingl. Advanced Research Projects Agency Network (rete dell'agenzia per progetti di ricerca avanzata). L'agenzia in questione è la DARPA (Defense Advanced Research Projects Agency) del Dipartimento della Difesa statunitense, che per prima sviluppò una rete a commutazione di pacchetto, l'A. appunto, per verificare la possibilità di mantenere in funzione una rete di elaboratori a livello nazionale in caso di attacco nucleare. L'A. ha dato poi origine al complesso di reti e sottoreti da cui si è sviluppata per integrazione Internet. ASCII (sigla di American Standard Code for Information Interchange). In informatica, codifica binaria a sette bit usata per la trasmissione dati. B Back up loc. inglese (da to back, appoggiare + up, su) usata in italiano come sm. 1) Nella tecnica, sistema di riserva il cui intervento è previsto in caso di guasto del sistema principale. 2) In informatica, duplicazione di sicurezza dei dati o dei programmi Background In informatica: a) modalità con cui il sistema esegue determinati comandi, mentre sono utilizzati altri programmi; b) colore o immagini di sfondo del desktop, di un testo oppure di una pagina Web. Backlog In informatica, lista delle operazioni che devono essere eseguite dal computer. Backslash carattere ASCII, utilizzato nel sistema operativo MS-DOS per separare le varie parti che compongono il nome di un file. Backspace pulsante della tastiera del computer, contrassegnato da una freccia rivolta verso sinistra che arretra di uno spazio prima del cursore. Backtracking In informatica, tecnica di risoluzione di problemi consistente nel ritornare, ogni volta che una computazione non può proseguire, alla situazione precedente e nel provare ad andare avanti compiendo una scelta diversa. Banner In informatica, inserzione pubblicitaria utilizzata sulle pagine Web, costituita generalmente da uno striscione “elettronico”, di formato rettangolare, contenente un'immagine o un'animazione, che funge da link al sito dell'inserzionista. Batch In informatica, batch processing, elaborazione sequenziale di uno o più programmi considerati come un insieme unico (batch). Elaborazioni batch vengono eseguite nei grandi e moderni sistemi in tempo reale e time sharing nei momenti di disponibilità e permettono di conseguire l'impiego ottimale delle risorse operative del sistema. Nei personal computer MS-DOS un file batch può contenere una serie di istruzioni simile a quella che verrebbe introdotta manualmente dall'utente e permette di automatizzare alcune operazioni ripetitive. Biochip ipotetico microcircuito integrato in cui, invece del tradizionale silicio, viene utilizzato materiale organico costituito in particolare da proteine. Facendo assumere a molecole biologiche i compiti degli "interruttori" elementari che stanno alla base degli elaboratori digitali, è possibile ottenere microchip ad altissima integrazione utilizzabili per computer di nuova concezione che, emulando il funzionamento del cervello umano, potranno raggiungere risultati come il riconoscimento del linguaggio naturale e delle immagini. Gli specialisti di bioelettronica sono riusciti finora a realizzare diversi tipi di "biosensori", strutture ibride composte da materiale organico ed elettronico, i cui campi di applicazione sono prevalentemente quelli della diagnostica medica e dell'analisi ambientale. Con i biochip è possibile riconoscere l'origine delle specie animali che compongono i prodotti alimentari o controllare le sementi e scoprire sequenze del DNA provenienti da organismi geneticamente modificati. BIOS acronimo di Basic Input/Output System, l'insieme dei programmi di sistema che presiedono a tutte le funzionalità essenziali di un elaboratore. Nei primi microelaboratori il BIOS occupava pochi Kbyte di una comune memoria ROM , non modificabile, e conteneva le istruzioni di avvio della macchina e pochi parametri fondamentali. Con l'evolversi dell'hardware e soprattutto per rispondere alla versalità delle componenti hardware di un moderno microcomputer, il BIOS si è evoluto a vero e proprio sistema operativo che gestisce, in modo autonomo, la gran parte delle funzionalità di I/O della macchina. Le versioni più recenti del BIOS sono contenute in memorie riscrivibili di tipo Flash e raggiungono dimensioni dell'ordine del Mbyte. La riscrivibilità delle memorie Flash permette di aggiornare il BIOS di una macchina, sia per eliminare eventuali anomalie del software, sia per aggiungere la gestibilità di nuovi tipi di periferiche, senza che si debba sostituire tutta la piastra madre. B-ISDN sigla per Broadband-Integrated Services Digital Network (rete numerica a larga banda integrata nei servizi). Con B-ISDN si individua, nell'ambito delle attività internazionali di normalizzazione, una soluzione di rete che consente l'integrazione di tutti i servizi attuali e futuri tramite l'adozione di tecnologie a larga banda. Dal punto di vista architetturale, la B-ISDN costituisce una piattaforma di rete basata sull'utilizzo di tecnologie di trasmissione e di commutazione che permettono di fornire le alte velocità richieste da applicazioni quali l'interconnessione di LAN e workstation, l'accesso a supercalcolatori e in genere il trasferimento client/server delle grandi quantità di dati necessarie per i servizi multimediali, l'elaborazione di immagini, la simulazione, la progettazione, la visualizzazione e la televisione ad alta definizione. Bit s. ingl. usato in it. come sm. (abbreviazione di binary digit, cifra binaria). In informatica: A) è l'unità base di informazione, la quantità di informazione necessaria per distinguere fra due eventi equiprobabili elementari; in altri termini, l'informazione fornita in risposta a una domanda che ammette solo due possibilità: sì o no (rappresentate da 0 e 1). B) Una posizione nel sistema di numerazione binaria che può assumere i simboli 0 o 1. I b. sono alla base della rappresentazione interna negli elaboratori digitali di numeri, caratteri alfabetici, simboli e istruzioni. Il b. è l'unità più piccola di memoria. La capacità di un canale di trasmissione dell'informazione si misura in b. al secondo (baud). Booleano agg. Che si riferisce al matematico inglese G. Boole: algebra b., reticolo b., v. algebra di Boole. Operatore booleano Ogni linguaggio contiene un insieme di caratteri speciali che, usati sui valori, riescono a modificarli, a confrontarli, a usarli in operazioni aritmetiche e a combinarli. Gli operatori b., infatti, eseguono operazioni logiche, formalizzando le relazioni di esclusione e inclusione nell'algebra b., e per questo motivo hanno trovato larga applicazione in sistemi di elaborazione di ricerche per parole chiave, dette appunto ricerche b., come nei data base o nei motori di ricerca su Internet. I principali operatori b. sono AND, OR e NOT e le loro funzioni variano a seconda della ricerca che si vuole effettuare: p. es. se si vogliono cercare informazioni relative a “editoria italiana”, formulando la query con AND posto tra i due termini si troveranno documenti in cui sono presenti entrambe le parole; allo stesso tempo, usando la funzione OR, i documenti restituiti conterranno almeno uno dei due termini indicati o entrambi; digitando, invece, “editoria NOT italiana” si otterrà in risposta l'elenco di tutte le risorse che si riferiscono solo alla parola editoria, ma non alla parola italiana. Browser in informatica, in ambito Internet, programma che consente di navigare alla ricerca di qualcosa; in particolare permette di richiedere, raggiungere e visualizzare il sistema di pagine e di collegamenti ipertestuali del World Wide Web. Buffer in elettronica, circuito elettrico, detto anche separatore, usato per separare il circuito di comando dal circuito di carico. In informatica, dispositivo, detto anche memoria tampone, per la memorizzazione temporanea di dati nel corso di operazioni di trasferimento o di trasmissione. Bug s. inglese (propr., cimice, piccolo insetto) usato in italiano come sm. In informatica errore di programma, a volte anche derivante da guasto dell'elaboratore; di qui debugging, procedura di eliminazione dei bugs, ossia di verifica e messa a punto, per conseguire la piena funzionalità di un programma. L'origine del termine è storica: un insetto mise fuori servizio il primo calcolatore digitale di uso generale, l' ENIAC (1945). Bus in elettronica e in informatica, insieme di conduttori che collegano le varie parti di un microprocessore, consentendo così il reciproco colloquio. Byte in informatica, gruppo di 8 bit considerato ed elaborato come unità e rappresentato con la lettera B. Multipli: 210 =1024 B corrispondono a 1 KB (kilobyte); 210 =1024 KB corrispondono a 1MB (megabyte); 210 =1024 MB corrispondono a 1 GB (gigabyte). Approssimando si hanno le seguenti equivalenze: 103 B=1KB; 106 B=1MB;109 B=1GB. C Cablaggio in elettrotecnica e in elettronica, l'insieme dei cavi elettrici e relativi accessori che costituiscono gli elementi di collegamento di un circuito elettrico. Cache s. inglese (dal francese cacher, nascondere) usato in italiano come sf. In informatica indica una particolare memoria che serve a velocizzare il reperimento di un'informazione. La cache può essere un chip hardware oppure un'area di un disco rigido; viene riempita con gli ultimi dati in transito e permette di estrarli in modo random a seguito di un'identica richiesta in tempo ravvicinato. Nei personal computer una memoria cache hardware viene interposta tra il microprocessore e la memoria RAM. Per aumentare la probabilità di reperire l'informazione richiesta direttamente all'interno della cache, si possono disporre più memorie in cascata e in questo caso si parla di livelli della cache(primo, secondo, L1, L2, ecc.). I dati richiesti dal microprocessore vengono prima cercati nella cachedi primo livello, che generalmente risiede nello stesso chip del microprocessore, successivamente vengono cercati nella cachedi secondo livello e, solo in caso di esito negativo, si deve accedere direttamente alla RAM. In generale la cachedi primo livello funziona alla stessa velocità del microprocessore o a metà frequenza, mentre la cachedi secondo livello lavora alla velocità della piastra madre o a una frequenza intermedia tra quella del processore e quella della RAM. Si utilizza invece una cache su disco rigido quando i dati provengono da Internet o da una macchina remota. Le richieste di accesso ai dati vengono confrontate con il contenuto della cache. sul disco locale; se il dato è presente si verifica sulla macchina remota che non sia stato modificato nel frattempo e, se questo è vero, lo si preleva dal disco senza doverlo nuovamente scaricare dalla rete. CAD (sigla dell'inglese Computer Aided Design). Tecniche di progettazione che si avvalgono dell'uso di elaboratori elettronici. I programmi CAD consentono di rappresentare su computer un modello che descrive il modello reale, di simularne il comportamento di verificarne i margini di funzionamento e di estrarne i criteri di fattibilità. I programmi CAD sono particolarmente diffusi per la progettazione di pezzi meccanici in ditte aeronautiche, automobilistiche ecc. Nell'integrazione con i sistemi CAM si parla di CAD/CAM. CAM (sigla dell'inglese Computer Aided Manufacturing). Tecniche di produzione che si avvalgono dell'uso di elaboratori elettronici per gestire, controllare e comandare i mezzi di produzione. I sistemi CAM utilizzano metodi derivati dalla ricerca operativa, dalla teoria dei sistemi, dalla teoria dei controlli, per automatizzare la produzione industriale. I vantaggi maggiori si ottengono con l'integrazione con i sistemi CAD (CAD/CAM). Cardare s. ingl. usato in it. come sm. In informatica, termine che indica un programma in distribuzione gratuita per il quale l'autore, o gli autori, gradirebbero come segno di approvazione da parte dell'utilizzatore l'invio di una cartolina illustrata. Case Contenitore dell’unità centrale del computer, può essere: desktop, se sta appoggiato sulla scrivania e sostiene il monitor, tower, minitower, miditower, se è verticale CD-Rom acronimo della denominazione inglese Compact Disc-Read Only Memory, disco compatto- memoria per sola lettura; infatti, in questi dischi si possono soltanto leggere le informazioni memorizzate e non memorizzarne altre. Il CD-ROM è un dispositivo che consente di archiviare grandi volumi di dati sfruttando tecnologie di lettura ottica. Il principale vantaggio dei dispositivi ottici rispetto ai supporti magnetici, oltre la capacità di memorizzare grandi quantità di informazioni in uno spazio ridotto (ossia una maggiore densità di registrazione), è un minor pericolo di deterioramento delle informazioni memorizzate. Risultano, infatti, più resistenti a colpi, attriti e problemi meccanici e non presentano il rischio di perdita delle informazioni a causa di campi elettromagnetici esterni. Attualmente i CD-ROM sono il supporto ad alta densità di memoria più economico; un CD-ROM di 12 cm di diametro contiene 600 Mb. La presenza di un adeguato software consente un accesso molto rapido alle informazioni immagazzinate. Il CD-ROM costituisce un nuovo mezzo di diffusione delle informazioni in concorrenza con la tradizionale carta stampata. Su CD-ROM sono state digitalizzate grandi opere come enciclopedie e testi giuridici; alcune società hanno pubblicato i propri cataloghi e documenti tecnici su di esso. Per un lungo periodo i CD-ROM hanno costituito il supporto ad alta densità di memoria maggiormente economico e diffuso. Progressivamente però hanno perduto una parte di mercato, conquistata dal più capiente DVD. Alla diffusione dei CD-ROM ha contribuito il fatto che dal 1998 tutti i personal computer venduti posseggano un lettore CD-ROM incorporato e la diffusione dei masterizzatori che permettono di realizzare CD-ROM a bassissimo costo. Dal 2000 sono aumentati i personal computer dotati di lettore DVD compatibile con i CD-ROM CDV sigla dall'inglese Compact Disc Video (video-disco compatto). Disponibile in diversi formati da 12, 20, e 30 cm, ha trovato diffusione limitata, nonostante l'ottima qualità video e l'assenza di usura, per la scarsa disponibilità di titoli (film e generi musicali). Cellulare apparecchio telefonico che si avvale di un'infrastruttura di comunicazioni radio che consente la connessione di un utente mobile con un altro utente mobile o con un utente della rete fissa. In una rete radiomobile cellulare la copertura radioelettrica si ottiene suddividendo l'area di servizio in zone, chiamate celle, servite da una stazione radio a cui il terminale mobile in transito si connette. Inizialmente, l'utilizzo dei sistemi radiomobili era riservato ad applicazioni nell'ambito della navigazione, prima marittima e successivamente aerea. Grazie ai progressi tecnologici e alla conseguente riduzione dei costi e delle dimensioni dei sistemi ricetrasmittenti fu in seguito possibile utilizzare i collegamenti hertziani, cioè realizzati tramite onde radio, anche nel campo delle comunicazioni personali terrestri. Nacque così negli anni Sessanta la prima generazione di sistemi radiomobili di tipo automatico. Si trattava di sistemi caratterizzati dall'uso di celle di copertura di grandi dimensioni (20/30 km di raggio), con un numero di canali a disposizione del servizio alquanto limitato (da 20 a 40). L'utente in movimento che, durante la comunicazione, passava da una cella a un'altra, sperimentava un progressivo degrado della comunicazione e il successivo abbattimento della stessa. Peraltro, un utente mobile che desiderasse chiamarne un altro doveva indicarne all'operatore la posizione e quindi la cella di temporanea appartenenza. Nella seconda metà degli anni Settanta, al progressivo aumento della domanda di servizio corrispose un rinnovato impegno nella ricerca di soluzioni tecnologiche che superassero le limitazioni dei sistemi di prima generazione. I sistemi di seconda generazione, indicati comunemente in letteratura come “sistemi analogici cellulari”, superarono le limitazioni che rendevano i sistemi precedenti assai poco funzionali, gestendo un numero molto più elevato di canali radio (circa 200 per i sistemi operanti nella banda dei 450 MHz e oltre i 1000 per quelli nella banda dei 900 MHz) e celle di dimensioni più ridotte. Ma soprattutto i nuovi sistemi erano in grado di effettuare una commutazione automatica del canale radio durante la conversazione (funzione hand off o hand over), permettendo così all'utente di spostarsi da una cella all'altra senza interrompere la comunicazione. Inoltre, il riconoscimento automatico e in tempo reale della posizione degli utenti (aggiornamento automatico della localizzazione d'utente) rendeva possibile l'instradamento della comunicazione verso gli utenti mobili senza che l'utente chiamante ne dovesse conoscere la posizione (funzione roaming). Per superare il problema della diversità dei sistemi radiomobili adottati dalle diverse nazioni europee, nel 1982 la CEPT (Conférence Éuropeenne des Postes et des Telecommunicationes, Comitato Europeo delle Poste e delle Telecomunicazioni) istituì una commissione tecnica denominata GSM (Groupe Speciale Mobile, Gruppo speciale mobile) con il compito di definire uno standard paneuropeo per le comunicazioni radiomobili cellulari, che consentisse a un utente di usufruire del servizio utilizzando lo stesso terminale in una qualunque delle nazioni aderenti all'iniziativa. Il risultato delle attività di standardizzazione iniziate nel 1982 fu la definizione delle specifiche del sistema radiomobile cellulare a tecnologia digitale GSM (Global System for Mobile Communication, Sistema globale per le comunicazioni mobili), oramai adottato anche da molte nazioni extraeuropee. I sistemi di seconda generazione sono in funzione in molte nazioni, compresa l'Italia, anche se l'evoluzione verso i sistemi digitali (GSM o altri) è particolarmente rapida. In Italia, il primo servizio di telefonia radiomobile venne lanciato dalla SIP nella prima metà degli anni Settanta, con il nome di RTMI (Radio telefono mobile integrato). Operante nella banda dei 160 MHz, utilizzava delle celle molto grandi (oltre 20 km) e un numero esiguo di canali radio (32, dedicati alle maggiori aree urbane e alle principali arterie di comunicazione), con una capacità di servizio di qualche migliaio di utenti. Il servizio era automatico per le chiamate generate da terminale mobile, ma necessitava dell'intervento dell'operatore per le chiamate verso terminale mobile, del quale l'utente chiamante doveva conoscere la posizione. Nel 1984, ormai virtualmente satura la rete RTMI, entrò in funzione il sistema RTMS 450 (Radio Telephone Mobile System, Sistema mobile di radio telefonia) che rimase attivo fino al 1996. Si trattava di un sistema analogico di seconda generazione basato sulla tecnologia cellulare che permetteva all'utente di effettuare e ricevere automaticamente chiamate senza l'intervento dell'operatore e di spostarsi da una cella a un'altra senza essere soggetto all'abbattimento della conversazione. Il sistema operava nelle bande 450-455 MHz per la comunicazione tra terminale e stazione radio e 460-465 MHz per la comunicazione in verso opposto; in ogni banda erano allocati 200 canali radio. Il sistema RTMS 450 raggiunse a sua volta la saturazione e, in attesa della rete GSM, si rese necessaria l'introduzione di una rete più evoluta in grado di soddisfare la sempre crescente domanda sia di accessi sia di servizi. Nel 1990 fu resa operativa la rete RTMS 900, per la quale fu scelto lo standard E-TACS, sperimentato con successo in Gran Bretagna e adottato tra gli altri anche da Austria, Irlanda e Spagna. Furono introdotti dei terminali mobili di dimensioni ridotte che soppiantarono quelli trasportabili e veicolari dei sistemi precedenti. In Italia il primo servizio GSM fu avviato da Telecom all'inizio degli anni Novanta, ma il lancio commerciale del servizio avvenne nell'aprile del 1995 a opera di TIM (Telecom Italia Mobile), nata l'anno precedente come gestore pubblico del servizio radiomobile. Nel 1993 venne emanato il bando di gara per l'assegnazione delle concessioni per un nuovo servizio digitale GSM, da affiancare a quello fornito dal gestore pubblico. La gara fu vinta nel 1994 dalla società Omnitel Pronto Italia, capeggiata dal gruppo Olivetti, che nell'ottobre 1995 diede l'avvio al proprio servizio sperimentale, aprendo la fase commerciale a dicembre dello stesso anno, dopo aver raggiunto il 40% della copertura del territorio nazionale. Nel corso degli anni Novanta, la telefonia mobile, nota anche come telefonia a mobilità di terminale, in Italia superava i 20 milioni di abbonati: per le aree prive di infrastrutture di terra erano presenti le celle satellitari con diametri superiori ai 500 km, seguivano le macrocelle per servizi di tipo rurale (diametri fino a circa 30 km), le microcelle per aree urbane ad alta densità (qualche centinaio di metri), le picocelle per servizi interni a edifici commerciali o industriali (qualche decina di metri). Nei sistemi radiomobili rientravano sia i cordless (sistema domestico costituito, al limite, da una sola cella) e i sistemi cellulari, nei quali la mobilità fra celle adiacenti era garantita, in tempo reale, dalla procedura del handover. Il roaming era la procedura con cui era possibile utilizzare il servizio, anche fra reti servite da gestori differenti. La tendenza era quella di sviluppare standard compatibili almeno a livello continentale, per permettere l'uso di terminali capaci di operare con più sistemi, per esempio terminali dual-band, TACS e GSM, in modo che la scelta della modalità operativa fosse controllata da software (software radio). Fra i sistemi cordless era stato standardizzato il sistema DECT (Digital Enhanced Cordless Telecommunication), con lo scopo di permettere l'impiego non solo nell'ambito di una abitazione, ma su un territorio di tipo urbano. Lo standard originale GSM prevedeva l'uso delle gamme 890-915 MHz per la trasmissione da telefono cellulare e 935-960 MHz per la ricezione, una evoluzione del sistema operava su frequenze più elevate, intorno ai 1800 MHz, usando celle di dimensioni non superiori ai 10 km, sistema più adatto alle aree urbane. Per tale motivo avevano successo, in zone a elevata densità di utenza, i terminali dual-band (900 e 1800 MHz). Il sistema a 1800 MHz veniva attivato in Italia nel marzo 1999. La tendenza, inoltre, a sviluppare sistemi di comunicazione universale portava allo sviluppo del UMTS (Universal Mobile Telecommunication System). Tale sistema permetteva l'accesso in rete in aree urbane e extraurbane e in tutto il mondo, attraverso terminali palmari adattabili e riprogrammabili. Il sistema IMT-2000 (International Mobile Telephone-2000), invece, permetteva il roaming fra diverse reti, fisse e mobili, con accesso a servizi multimediali, la navigazione su www (World Wide Web) e l'accesso a data base. La trasmissione dei dati avveniva con uno standard superiore a quello usato in trasmissione di sola fonia, che andava dai 144 kbit/s per spostamenti veloci ai 2 Mbit/s in ambienti chiusi. L'uso di sistemi cellulari per trasmissione di dati a elevata capacità, inoltre, era legato anche a probabilità di errore sul bit (BER) non superiore a 10-6 (per la voce i valori di BER erano 1000 volte superiori). Chat s. inglese usato in italiano come sf. (propr. chiacchierata, ma anche sigla di Conversational Hypertext Access Technology). Funzione che su BBS e su molti sistemi in linea offre la possibilità di conversare in linea in tempo reale a due o più utenti collegati contemporaneamente. Su Internet, questa funzione è svolta da IRC o da talk. Chat line loc. inglese usata in italiano come sf. (da chat, chiacchierata, e line, linea, in questo caso telefonica). Sistema di comunicazione telefonica che consente agli utenti di collegare più di due apparecchi in un'unica conversazione: da quando si è fatto installare la chat line, passa intere serate in discussioni con i suoi amici. Chattare v. intrans. (dall'inglese to chat, chiacchierare, conversare). Possibilità di scambiare in tempo reale messaggi digitati sulle rispettive tastiere tra due o più persone collegate in rete; i messaggi digitati appaiono sullo schermo degli interlocutori collegati qualche istante dopo. Questa attività in pratica equivale a una conversazione telefonica. Chip Descrizione generale s. inglese (pezzetto, scaglietta, piastrina) usato in italiano come sm. Termine usato per indicare una piastrina di silicio (o altro materiale, come germanio o arseniuro di gallio) che contiene numerosi componenti elettronici sia attivi (transistori, diodi, ecc.) che passivi (capacità, resistenze, connessioni, ecc.). La piastrina tipica ha una superficie di alcune decine o centinaia di millimetri quadrati, spessore inferiore a due decimi di millimetro e contiene un microcircuito digitale; i circuiti analogici, dato il tipo di prestazioni (per esempio alti guadagni e quindi potenze crescenti verso gli ultimi stadi) e il minor grado di ripetibilità di insiemi circuitali, si sono prestati meno alla realizzazione su chip, ma sono già apparsi filtri e amplificatori operazionali di questo tipo. Il chip è l'espressione tangibile della microelettronica, tecnologia nata con la realizzazione del primo circuito integrato (insieme di transistori e resistenze, 1958) e con la messa a punto della tecnologia planare (1959). Quest'ultima è una tecnica complessa per la costruzione monolitica di circuiti con transistori e altri componenti microelettronici. Su una sottile fettina di silicio (wafer) monocristallino del diametro di 25-50 mm, tramite ripetute fasi fotolitografiche, chimico-fisiche, meccaniche e termiche si costruiscono topologie circuitali prefissate. Queste vengono realizzate sulla piastrina con un procedimento fotolitografico che impiega luce ultravioletta filtrata attraverso maschere per incidere il disegno del circuito sul piano in lavorazione: il wafer viene preossidato superficialmente con ossido di silicio e ricoperto da un materiale polimerico fotosensibile (photoresist); la fotolitografia con radiazione ultravioletta altera il photoresist; la rimozione chimica selettiva del photoresist alterato e, di conseguenza, dell'ossido nelle zone non protette dal photoresist, crea a sua volta, piano per piano, la topologia voluta. Alle fasi di fotolitografia si alternano fasi di deposizione di strati di pochi micron di silicio monocristallino, fasi di lavorazione meccanica, di trattamento chimico e di diffusione di droganti (elementi che aumentano la conduzione) per realizzare la struttura elementare voluta (per esempio un transistore del tipo a giunzione) . Si allineano così in volumi ridottissimi zone isolanti di ossido di silicio, zone semiconduttrici (di tipo p se il drogante è il boro o simili; di tipo n se è il fosforo, ecc.) e zone di conduzione . La complessità del processo deriva, da un lato, dal numero di transistori realizzati in un chip, che può superare il milione, e dalla contemporanea lavorazione di migliaia di chip sullo stesso wafer ; dall'altro dalla precisione della lavorazione che è dell'ordine del micron e che richiede, per ogni fase di mascheratura, allineamenti accuratissimi. Importanti anche le specifiche elettriche dei parametri caratteristici dei transistori, dei resistori e degli altri componenti, mentre i limiti sulle loro variazioni sono meno stringenti (dell'ordine del 20% con punte del 40%), dato che i circuiti logici dei sistemi digitali richiedono solo la discriminazione a due (tre) stadi: vero/falso (indeterminato). Per la realizzazione dei chip si sono messe a punto tecnologie che prevedono anche una "coltivazione" in laboratorio con lo stesso procedimento che in natura viene messo in atto dalla conchiglia per produrre la madreperla. Il procedimento, realizzato dall'Università del Texas di Austin, sfrutta la tendenza di proteine e cristalli ad aggregarsi in modo spontaneo e ordinato, aprendo la via ad una diversa generazione di microchip superminiaturizzati e costituendo un passo in avanti per l'integrazione di molecole organiche e inorganiche. I ricercatori hanno realizzato circuiti integrati a partire da peptidi, i precursori delle proteine, e cristalli di silicio o di arsenuro di gallio, i composti più comunemente usati nei microchip. La tecnologia utilizza la capacità dei peptidi di unirsi saldamente ai cristalli catalizzando l'allineamento di più cristalli in una struttura continua, proprio come succede nelle conchiglie dove, unendosi a un cristallo di carbonato o fosfato di calcio, le proteine inducono lo sviluppo di colonne di cristalli, visibili a occhio nudo come le striature della madreperla. Per individuare le molecole con cui lavorare, i ricercatori hanno selezionato centinaia di milioni di virus, ognuno dei quali caratterizzato sulla membrana esterna da un diverso peptide che serve al microrganismo per attaccarsi alle pareti delle cellule da infettare. Messo ciascuno di questi in un ambiente ricco di cristalli di materiali semiconduttori, sono stati individuati i virus che si legano ai cristalli più saldamente. Il loro peptide è stato quindi isolato e l'esperimento è stato ripetuto, constatando che anche il peptide da solo si univa saldamente al cristallo e faceva da catalizzatore per la crescita di una struttura complessa con l'incolonnamento di altri cristalli. Sono stati in tal modo ottenuti dei materiali "biocomposti", utili come basi per la costruzione di una nuova generazione di complesse strutture elettroniche. Cenni storici I dispositivi su chip hanno subito una fortissima evoluzione con tappe scandite dall'ampiezza delle funzioni svolte: a) l'integrazione su piccola scala (SSI, Small Scale Integration, 1962): il chip, costituito da poche decine di transistori, realizza solo funzioni logiche elementari (AND, OR, ecc.); b) l'integrazione su media scala (MSI, Medium Scale Integration, 1966): il dispositivo, composto da centinaia di transistori, realizza unità logiche complesse come i registri e i contatori; c) l'integrazione su larga scala (LSI Large Scale Integration, anni Settanta): il dispositivo, composto da decine di migliaia di transistori, realizza unità funzionali complete come le memorie e i microprocessori (questi ultimi concepiti nella loro essenzialità; per esempio con capacità di calcolo solo in virgola fissa, mentre quella in virgola mobile viene fornita su altro chip progettato come coprocessore matematico); d) l'integrazione a grandissima scala (VLSI, Very Large Scale Integration, anni Ottanta): il dispositivo, costituito anche da più di un milione di transistori, è, da solo, un calcolatore assai potente dotato di memoria ad accesso molto rapido e di numerose funzioni prima delegate a chip ausiliari del chip principale; e) l'integrazione a scala ultra (ULSI, Ultra large Scale Integration, anni Novanta) che conta oltre 10.000.000 di transistor, collegati tra loro da fili spessi solo 0,18 micron, in grado di elaborare miliardi di operazioni al secondo. Nel 1989 è stato progettato un chip di oltre un milione di transistori della superficie di trecento millimetri quadrati circa che ha mostrato prestazioni simili a quelle dei supercalcolatori: altissima velocità (40 MHz, ottanta milioni di operazioni al secondo in virgola mobile); operazioni vettoriali; esecuzione parallela delle istruzioni; ampia memoria per dati e istruzioni; grafica tridimensionale; architettura con bus a 64 bit; corredo di software (programmi di base) che include i compilatori Fortran e C, nonché il vettorizzatore Fortran (programma che ristruttura il codice Fortran per il calcolo vettoriale). Questo potenziamento del chip è stato primariamente ottenuto con una maggiore densità di componenti; peraltro anche la dimensione del chip è aumentata nel tempo: da una dimensione caratteristica utile di 1,4 mm (lato) nel 1960 si è passati agli 8 mm del 1980, ai 30-40 del 2000. Negli anni Novanta, per aumentare la capacità di calcolo, si è agito sulle dimensioni geometriche degli elementi di base dei circuiti integrati presenti sui chip e sul silicio e le sue connessioni. Sono stati creati chip che utilizzano una particolare miscela di silicio e germanio in modo da renderli più veloci e ideali per operare nel campo delle alte frequenze e nella trasmissione di voce e dati. Inoltre, usando la SOI (Silicon On Insulator), i chip sono stati protetti con uno strato di isolante per ridurre gli effetti elettrici nocivi che diminuiscono le loro prestazioni. La scoperta di questo filtro isolante ha poi permesso anche la connessione dei chip non più attraverso fili di alluminio, ma con fili di rame, in precedenza tecnicamente difficili da integrare con il silicio. Per il chip si sono aperti campi di applicazione di varia natura. I laboratori hanno sperimentando meccanismi (accelerometri e altri sensori) e motori (del tipo a capacità variabile fra rotore e statore) della dimensione di una frazione di millimetro; le applicazioni potenziali del chip riguardano anche l'automobile (sospensioni, freni, sterzo), l'elettronica medica e il settore dei controlli di processo. § Dato il protratto successo economico del chip, che ha inciso positivamente sull'andamento delle azioni delle imprese del settore, il termine è stato adottato anche in campo finanziario con l'espressione blue chips. Cibernetica sf. [sec. XX; dal greco kybernētike (téchnē), (arte) del timoniere, sul modello dell'inglese cybernetics]. Scienza che studia la progettazione e la realizzazione di sistemi artificiali, senza necessariamente partire da un sistema biologico esistente, avendo come massimo obiettivo la realizzazione di sistemi in grado di autoprogrammarsi, cioè di proporsi autonomamente delle finalità. Cenni storici: evoluzione Sin dall'antichità si è tentato di costruire macchine che imitassero certi aspetti del comportamento umano, come scrivere, suonare uno strumento, ecc. Nel campo dei regolatori automatici l'anno 1871 segnò una tappa storica con l'apparizione del regolatore di Watt, la cui idea base si trova nel tardo Medioevo nella regolazione automatica dei mulini a vento. Le prime idee veramente cibernetiche provengono, però, dalla biologia, dove nelle idee di riflesso e di omeostasi è presente il concetto di retroazione. Nel 1930 L. von Bertalanffy creò le basi della teoria generale dei sistemi che ricerca principi unificanti nello studio delle entità complesse della biologia e della sociologia. Questa teoria non interessò però l'ingegneria sino al 1940 quando, due anni dopo la presentazione di una tesi di C. Shannon sull'applicazione dell'algebra di Boole ai circuiti di commutazione, si incominciarono a progettare i primi elaboratori elettronici numerici. La teoria generale dei sistemi fu allora applicata a queste macchine e a particolari automatismi usati nell'artiglieria contraerea. Nello stesso anno R. Ashby costruì il primo dispositivo per realizzare fenomeni omeostatici: l'omeostato. Nel 1943 W. S. McCulloch cominciò a definire modelli matematici per lo studio e l'imitazione del cervello umano. Contemporaneamente, in embriologia, comparivano temi chiaramente cibernetici nello studio delle cellule giganti e della riproduzione. La nascita della cibernetica nel senso precedentemente definito si ascrive appunto agli anni immediatamente precedenti la II guerra mondiale, quando un gruppo di scienziati, tra i quali N. Wiener, interessati alle discipline più diverse (matematica, statistica, ingegneria, elettronica, neurofisiologia, ecc.) cominciarono a riunirsi sotto la direzione del neurologo messicano A. Rosenbluth nella facoltà di medicina di Harvard per discutere i fondamenti del metodo scientifico in modo completamente nuovo e generale, cercando di scoprire idee comuni a tutte le discipline scientifiche, per poterne unificare i linguaggi. L'imminenza della guerra li portò a interessarsi ai due temi dell'automazione del calcolo e della direzione del tiro dei pezzi contraerei. In relazione al primo di essi, Wiener pubblicò, nel 1940, il risultato di uno studio sulle caratteristiche che avrebbe dovuto avere il futuro calcolatore automatico: esso doveva essere numerico ed elettronico con circuiti bistabili, con capacità logica e con memoria. Le sue idee rivoluzionarie si imposero e, già nel 1942, le università di Harvard, di Pennsylvania e di Princeton lavoravano attivamente su di esse. Il secondo tema diede luogo a un altro passo rivoluzionario, segnando la nascita della teoria della regolazione e del controllo; tuttavia la finalità di muovere con rapidità e precisione le torrette dell'artiglieria antiaerea coinvolgeva un così gran numero di difficoltà (predizione delle traiettorie ottimali, stabilizzazione rapida del cannone, ecc.) che per la sua soluzione fu necessario un enorme sforzo teorico. I risultati, che comprendono la teoria dei servomeccanismi, furono pubblicati e applicati solo nel dopoguerra. Le necessità belliche producevano così le prime “macchine intelligenti”. Due attività come il calcolo e la previsione, prima dominio esclusivo degli esseri umani, passavano nell'ambito delle capacità delle macchine segnando l'inizio, con l'avvio dell'automazione, di quella che è stata definita la “seconda rivoluzione industriale”. L'unità essenziale dei due problemi, centrata sui fenomeni della comunicazione e del controllo, comuni alle macchine e agli esseri viventi, venne rilevata da Wiener e Rosenbluth. Il termine cibernetica fu da loro adottato con l'obiettivo di arrivare a nozioni generali sui meccanismi, sulla loro organizzazione e sul loro controllo che potessero orientare su un'analisi più razionale delle funzioni degli esseri superiori e arrivare così alla loro produzione artificiale mediante organizzazione di materia inanimata in modo da imitare o simulare certi aspetti del comportamento degli esseri viventi, come la memoria e i riflessi condizionati. Cenni storici: la cibernetica contemporanea La cibernetica è una scienza interdisciplinare, cioè una scienza di collegamento tra varie discipline, quali l'ingegneria, la biologia, la matematica, la logica, ecc., che studia il comportamento degli animali e di ogni sistema paragonabile a un organismo vivente. Si occupa pertanto di organismi politici ed economici, di gruppi sociali, di elaboratori elettronici, di cellule, ecc., prestando particolare attenzione alle modalità con cui questi sistemi perseguono le proprie finalità e unificando la terminologia, e quindi la metodologia, delle discipline che si occupano della comunicazione (raccolta e analisi di informazioni) e del controllo (utilizzazione dell'informazione per regolare e comandare l'azione del sistema stesso). I metodi della cibernetica si basano sull'analisi statistica dell'informazione, sull'osservazione del comportamento globale dei sistemi complessi, sullo studio dell'organizzazione e interazione qualitativa dei diversi componenti e sulla considerazione dell'aspetto funzionale di ciascun organo, senza entrare nei dettagli materiali della sua costituzione. Al centro dell'interesse della cibernetica si trova il problema della finalità, in generale, e della sopravvivenza, in particolare, cioè, con linguaggio proprio di questa disciplina, il mantenimento dell'identità del sistema con la stabilizzazione della sua organizzazione, ottenuta mediante adeguati meccanismi di regolazione basati essenzialmente sul principio della retroazione. La cibernetica compie questo studio considerando i flussi di segnali che hanno luogo nel sistema e le elaborazioni funzionali cui vengono sottoposti indipendentemente da qualsiasi considerazione energetica. Più concretamente, per conseguire i propri fini, i sistemi studiati dalla cibernetica (siano animali, macchine o collettività) captano informazioni dal mondo esterno e le codificano per facilitarne la trasmissione al proprio centro coordinatore che le interpreta e, in funzione del contenuto, adotta le opportune decisioni, in generale scegliendo entro un insieme di molte possibili la linea di azione ottimale, cioè quella che meglio si adatta al conseguimento dei propri fini. Nell'ambito del campo di interesse della cibernetica si possono distinguere tre settori fondamentali: la cibernetica teorica, la cibernetica sperimentale, l'ingegneria cibernetica. La prima comprende la teoria dei sistemi che trasmettono ed elaborano informazioni e la teoria dei sistemi di controllo. La cibernetica sperimentale si occupa dello studio e della costruzione di modelli cibernetici, nonché della sperimentazione della teoria. L'ingegneria cibernetica si occupa della realizzazione di sistemi artificiali di alta complessità. In questo ambito si può far rientrare anche la bionica. La caratteristica fondamentale della cibernetica è quella di essere un modo di pensare, che emargina i concetti di energia, calore, rendimento, ecc. e centra tutto il suo interesse sul comportamento. La sua metodologia si orienta principalmente verso la soluzione delle seguenti tre grandi classi di problemi: analisi del sistema, del quale si distinguono le parti costitutive, il suo assemblaggio, la sua struttura, in modo da poterne dedurre e spiegare il comportamento; sintesi del sistema, per mezzo della quale si accoppiano i singoli costituenti in modo che il sistema globale soddisfi determinate condizioni, e sia, per esempio, in grado di realizzare un determinato obiettivo; costruzione di modelli, dove per modello si intende un sistema più semplice che funzioni in modo analogo o simile all'originale. Per la costruzione di un modello ci si basa su due forme di similitudine: di comportamento, o funzionale, e di struttura. L'obiettivo di costruire modelli secondo la prima forma è di imitare il comportamento dell'originale senza riprodurne la struttura. I modelli cibernetici si specificano mediante un insieme di blocchi simbolici con dettagli di entrate e uscite e con la rappresentazione del processo globale della trasformazione. La sua materializzazione si realizza generalmente mediante tecniche che, basate sulla meccanica e sull'elettronica, riproducono funzioni vitali senza entrare nei dettagli degli organismi. Questo, che a prima vista potrebbe sembrare fantascientifico, non lo è in quanto, in ultima analisi, un organismo vivente non è altro che un complesso di elementi più o meno semplici accoppiati in serie o in parallelo o con retroazione. § Le finalità centrali della cibernetica di costruire una teoria generale delle macchine indipendentemente dalla loro costituzione (elettronica, organica, micromeccanica) e di approfondire i campi della comunicazione e del controllo nelle macchine e negli esseri viventi hanno dato luogo a discipline autonome e, principali fra queste, l'ingegneria dei sistemi e l'intelligenza artificiale. Addirittura le discipline che si integrano nella cibernetica ne hanno sostituito, nei relativi campi di applicazione, il termine, fatto che, se indica da un lato un arretramento della visione di piena integrazione di scienze umane e fisiche di Wiener, rivela dall'altro il maggior spessore che esse stanno individualmente acquistando. L'ingegneria dei sistemi studia la natura e gli effetti delle interconnessioni fra “oggetti” e ha carattere spiccatamente interdisciplinare. Essa affronta problemi che riguardano i requisiti e i vincoli che gli oggetti devono soddisfare perché il sistema funzioni. L'ampia interdisciplinarietà dell'ingegneria dei sistemi si caratterizza inoltre per la considerazione di categorie radicalmente diverse di sistemi, che possono essere: a) formali (per esempio matematici); b) naturali (i processi fisici non vincolati artificialmente: un albero che cresce, un fiocco di neve che si forma, ecc.); c) umani (un sistema sociale); d) formali-naturali (un processo tecnologico, ossia un fenomeno fisico vincolato da un progetto realizzato: il motore a scoppio, la televisione, ecc.); e) formali-umani (una società integrata da strutture politico-istituzionali come un'università, una nazione); f) formali-naturali-umani (un'impresa con uno stabilimento che presiede a un processo tecnologico che è progettato e diretto da uomini). I progressi dell'ingegneria dei sistemi si collocano prevalentemente nell'area formale-naturale e sono essenzialmente derivati dall'elettronica che, per esempio, ha reso necessari progressi decisivi nella branca dell'affidabilità dei sistemi, senza i quali non sarebbero stati possibili microcircuiti funzionanti con milioni di componenti; un altro esempio è dato dalle telecomunicazioni in rapporto alla teoria delle code, insostituibile per la comprensione delle reti telematiche a commutazione di pacchetto. I progressi nell'intelligenza artificiale sono di dominio pubblico grazie al calcolatore nel suo ruolo di giocatore di scacchi di media-alta abilità. Meno noto è il fatto che il calcolatore svolge compiti con contenuti “intellettivi” nel campo del calcolo integrale. I circuiti neuronali hanno aperto, con la rètina al silicio, prospettive concrete nella visione artificiale. Infine i sistemi esperti impiegano meccanismi inferenziali, ossia basati su schemi induttivi oltre che deduttivi, capaci, per esempio, di diagnosi delle malattie infettive, delle malattie polmonari e di medicina interna. Informatica: teoria degli automi Un automa cellulare è un modello matematico costituito da un grande numero di elementi identici tra loro, ciascuno dei quali si evolve nel tempo secondo un insieme di regole semplici. L'automa cellulare, considerato come l'insieme completo dei suoi elementi, può essere usato per simulare fenomeni fisici e può dare luogo a comportamenti caratterizzati da un alto grado di complessità. L'automa cellulare è quindi un modello matematico adatto allo studio dei sistemi complessi. Il concetto di automa cellulare, introdotto originariamente dal matematico Stanislaw Ulam, è stato formalizzato, nel 1947, dal fisico John von Neumann, il pioniere del calcolo numerico. Nell'ambito dello studio dei meccanismi di autoriproduzione di esseri viventi e, in generale, della complessità dei fenomeni biologici, von Neumann focalizzò la sua attenzione sui principi logici che governano la capacità del sistema di autoriprodursi, tralasciando il dettaglio chimico-fisico del processo stesso. Egli decise di descrivere il sistema "essere vivente" come costituito da molte entità elementari (automi) definite su un dominio spaziale regolare (per esempio, in una dimensione, su punti equidistanti disposti su una retta, oppure, in due dimensioni, sulle celle di un reticolo regolare di quadrati o di esagoni, da cui il nome di automa cellulare). In questo contesto, la definizione di elementare si riferisce alla possibilità di descrivere l'entità con una quantità di informazione molto ridotta, al limite con una variabile che possa assumere solamente due valori, cioè con un singolo bit (per esempio, acceso/spento oppure 1/0). Il requisito fondamentale perché l'insieme di entità elementari possa sviluppare un comportamento complesso è che le entità stesse interagiscano tra di loro in maniera opportuna, cioè che la loro evoluzione temporale (definita per intervalli temporali discreti) dipenda dallo stato delle altre entità costituenti il sistema. Lo stato globale del sistema a un certo istante t può essere descritto da una matrice A i cui elementi A(i,t) rappresentano lo stato dell'automa che si trova nella cella i-esima. La regola di evoluzione temporale del singolo automa può essere rappresentata nella seguente maniera: A(i,t+1)=F(A(i-d,t),...A(i+d,t)) dove F rappresenta la regola di evoluzione temporale, e dove è stato indicato esplicitamente che lo stato dell'automa che si trova nella cella i-esima al tempo t+1 dipende dallo stato degli automi che si trovano nelle celle vicine (a una distanza ±d) i-d, i-d+1,..., i+d-1, i+d, al tempo t. È stato dimostrato che molti tipi di automi cellulari possono essere qualificati come macchine universali di Turing, cioè macchine che possono risolvere i cosiddetti problemi computabili, quei problemi la cui soluzione può essere ottenuta in un tempo finito e impiegando una serie di regole logiche ben precise. Un esempio di automa cellulare di questo tipo divenuto molto conosciuto è "Il gioco della vita" (Life), proposto dal matematico inglese John Horton Conway nel 1970. Il dominio su cui sono definite le entità elementari è composto da celle quadrate, ognuna delle quali può essere piena o vuota (viva o morta). A ogni avanzamento discreto del tempo, la nuova generazione è ottenuta applicando le seguenti regole: a) se una cella è vuota, essa diventa piena se tre dei suoi vicini sono pieni; b) se una cella è piena essa continua a vivere solo se ha due o tre vicini pieni (se ha meno di due vicini vivi, possiamo pensare che muoia di "solitudine", viceversa se ha più di tre vicini vivi, possiamo pensare che muoia per sovraffollamento). Nell'applicare queste regole, vanno considerate come vicine anche le celle sulle diagonali. Il dominio, inoltre, va considerato periodico, cioè il bordo destro va considerato unito con quello sinistro e il bordo superiore con quello inferiore. A seconda di come il sistema venga inizializzato, utilizzando queste regole evolutive si possono ottenere figure periodiche oppure, dopo un certo numero di passi temporali, figure statiche. Life è al confine tra ordine e caos, nel senso che ogni variazione delle regole o della configurazione iniziale può condurre a un dominio statico oppure a uno caotico, dove non si riesce a riconoscere alcuna struttura o figura regolare. È interessante notare che le regole di evoluzione temporale sono regole non lineari, e che coinvolgono solo le celle immediatamente adiacenti all'automa considerato: l'interazione tra automi viene in questo caso definita locale. È stato dimostrato da Conway che, usando sequenze di particolari figure per rappresentare i bit, Life può riprodurre l'equivalente di operatori logici AND, OR e NOT, e anche l'analogo di una memoria interna di computer (dimostrando, quindi, che Life è una macchina universale). È utile notare che un'altra caratteristica degli automi cellulari è quella di essere un modello matematico particolarmente adatto a essere implementato su elaboratori elettronici. Infatti, mentre l'implementazione di un algoritmo per la risoluzione di equazioni differenziali su calcolatore utilizza necessariamente numeri reali, la cui rappresentazione è per loro natura necessariamente approssimata da un numero di bit finito (e, quindi, il calcolo con essi effettuato è, inevitabilmente, esso stesso approssimato), un algoritmo basato su automi cellulari, lavorando su variabili rappresentabili da pochi (o al limite da un solo) bit, può effettuare un calcolo esatto. È bene però notare che l'informazione contenuta in una variabile rappresentata da un numero reale è, in senso lato, assai maggiore di quella contenuta in una variabile rappresentata da pochi bit. Ci si può, quindi, aspettare che un problema fisico rappresentato da un automa cellulare richiederà, tipicamente, per la sua risoluzione un grande numero di operazioni semplici, a differenza delle (relativamente) poche operazioni complicate necessarie a risolvere lo stesso problema descritto da equazioni differenziali. Tali peculiarità rendono gli automi cellulari particolarmente adatti alla implementazione su calcolatori paralleli, cioè su calcolatori costituiti da un grande numero di unità di elaborazione (anche semplici, capaci, cioè, di fare efficientemente solo poche operazioni). Sono state, anzi, progettate e costruite macchine calcolatrici specializzate nel calcolo automico, in cui ogni unità di elaborazione rappresenta la singola entità costituente l'automa cellulare, e connessa (cioè capace di scambiare informazione) solo con le altre celle da cui l'evoluzione dipende (le celle vicine). Gli automi cellulari possono essere utilizzati come modelli espliciti per un'ampia categoria di fenomeni fisici, tradizionalmente descritti da equazioni differenziali. Tra questi vi sono la chimica e la biologia, ma il campo in cui hanno avuto indubbiamente più successo è quello della turbolenza nei fluidi. La dinamica dei fluidi è tradizionalmente descritta dalle equazioni di Navier-Stokes. Esse sono delle equazioni differenziali alle derivate parziali che discendono dalla conservazione della massa e dell'impulso del fluido, in cui vengono tenuti in conto anche gli effetti dissipativi (viscosità) caratteristici di un fluido reale. Il rapporto tra i termini (non lineari) di convezione e i termini (lineari) di dissipazione viscosa che compaiono nelle equazioni di Navier-Stokes è noto come numero di Reynolds Re (Re=VL/ν, con L e V la scala di lunghezza e la velocità caratteristiche, e ν il coefficiente di viscosità): un fluido caratterizzato da un basso valore del numero di Reynolds esibisce un moto ordinato (regime laminare), mentre un fluido caratterizzato da un alto valore del numero di Reynolds esibisce un moto turbolento. Le equazioni di Navier-Stokes richiedono in genere una soluzione numerica, anche perché spesso la geometria del sistema fisico che si vuole studiare può essere assai complicata (si pensi, per esempio, al flusso di aria intorno alle ali di un aereo). Ma la soluzione diretta delle equazioni di Navier-Stokes, in particolare per alti numeri di Reynolds, è uno dei problemi più difficili del calcolo numerico. Sono stati di recente ideati degli automi cellulari in grado di riprodurre la fenomenologia di fluidi turbolenti. Il nome dato a questa classe di automi cellulari è quello di gas reticolari. Il primo esempio di automa cellulare per lo studio della fluidodinamica è l'automa HPP, dalle iniziali dei nomi dei tre ricercatori che lo hanno ideato (Hardy, Pomeau e de Pazzis). Su una griglia quadrata, in cui ogni nodo è collegato ai quattro suoi vicini, si distribuisce da un minimo di zero fino a un massimo di quattro particelle automiche, ognuna delle quali è vincolata a muoversi lungo una delle direzioni del reticolo. Le particelle si possono considerare come appartenenti a quattro famiglie, identificate dalla direzione in cui si possono muovere (nord, sud, est, ovest). Tutte le particelle hanno massa e velocità unitaria, ovvero nell'unità di tempo discreta possono raggiungere solo uno dei siti adiacenti. Lo stato del sistema di particelle su ciascun nodo è descritto da un singolo bit (presenza/assenza (1/0) della particella). Dato che ciascun nodo può avere fino a quattro particelle, il numero totale di combinazioni possibili su ciascun nodo è 2 4=16. L'automa cellulare nel suo complesso viene caratterizzato da un insieme di 4N2 bit, con N2 il numero di nodi del reticolo. Le regole di evoluzione del fluido automico possono essere divise in due fasi: quella di propagazione libera, in cui le particelle si spostano liberamente nella direzione che a ognuna di loro compete, e quella di collisione, in cui, raggiunto il nuovo sito, le particelle devono simulare lo scambio di impulso e di energia di un fluido reale. Le regole relative alla fase di collisione sono scelte imponendo, per ogni sito, la conservazione del numero di particelle e della corrente (definita come il prodotto della velocità per la densità di particelle) nelle direzioni congiungenti i siti. Le uniche collisioni che rispettano tutti questi vincoli sono quelle tra particelle che si muovono in direzione nord-sud e che, a causa dell'urto, si trasformano in particelle che si muovono in direzione est-ovest, e viceversa. Tutte le fasi di evoluzione delle particelle automiche possono essere rappresentate da operatori logici. Per completare la simulazione di un fluido reale per mezzo di un automa cellulare (e quindi ottenere informazioni su quantità macroscopiche quali, per esempio, temperatura e pressione), si richiede che siano effettuate medie sui valori di un grande numero di cellule, in maniera da rendere trascurabili le fluttuazioni statistiche. L'automa HPP ha dimostrato di poter simulare diversi comportamenti di un fluido reale, quali, per esempio, la propagazione di onde sonore, ma fallisce nel rappresentare fenomenologie più complicate, tipiche della transizione a regimi turbolenti. La ragione di tale fallimento è stata individuata nella insufficiente simmetria del dominio considerato (celle quadrate), e quindi nella impossibilità di soddisfare la conservazione di alcune quantità fisiche (in particolare, la ridotta simmetria del dominio rispetto a rotazioni impedisce la conservazione dell'impulso angolare). Oltre a non conservare correttamente alcune quantità fisiche, il reticolo HPP introduce un numero elevato (2N, essendo N il numero di righe o colonne del reticolo) di quantità conservate che non hanno una controparte in un fluido reale, e che sono chiamate "invarianti spurie". Esse sono la quantità di moto orizzontale su ciascuna riga, e quella verticale su ciascuna colonna. La descrizione del moto del fluido risulta così troppo "vincolata", e quindi è comprensibile l'incapacità di descrivere moti vorticosi in cui la quantità di moto si deve invece distribuire in modo efficiente. La scelta di un reticolo a simmetria esagonale (invece che quadrata), e il conseguente aumento dell'isotropia spaziale, si è dimostrato sufficiente a rappresentare la fenomenologia assai più complessa dei fluidi turbolenti. L'automa cellulare su reticolo esagonale prende il nome di automa FHP (dal nome dei loro proponenti Frisch, Hasslacher e Pomeau). Le regole di evoluzione delle particelle automiche sono analoghe a quelle dell'automa HPP, con ora 26=64 configurazioni possibili per nodo, e un numero di collisioni assai più elevato rispetto al caso HPP. Questa semplice estensione del modello ha permesso di ottenere dei risultati notevoli, permettendo di studiare con successo la dinamica della turbolenza di fluidi in domini bidimensionali caratterizzati da numeri di Reynolds moderatamente elevati. Lo studio di fluidi in domini tridimensionali per mezzo di automi cellulari richiede il passaggio attraverso reticoli in quattro dimensioni, e presenta difficoltà computazionali notevoli: il numero di configurazioni possibili per nodo diventa in questo caso 224=16777216 (cioè oltre 16 milioni) e la quantità di calcolo da effettuare e la memoria richiesta per immagazzinare tali informazioni sono assai più elevate rispetto al caso bidimensionale. Uno sviluppo recente delle teorie del gas reticolare è quello noto sotto il nome di equazione di Boltzmann su reticolo, in cui il fluido automico viene utilizzato per simulare direttamente l'equazione di Boltzmann, che descrive l'evoluzione della funzione di distribuzione delle particelle costituenti il fluido stesso. La funzione di distribuzione rappresenta la probabilità che a un certo istante di tempo, su un certo nodo del reticolo, vi sia una particella con velocità diretta in una data direzione: è quindi una quantità che può assumere, per sua natura, valori continui, non rappresentabili quindi con quantità discrete, bensì da numeri reali. Gli automi di questo tipo sono dunque automi ibridi, i cui stati non sono più descritti da pochi bit, anche se le regole di collisione sono del tutto analoghe a quelle degli automi HPP e FHP. La rinuncia alla esattezza del calcolo, dovuta alla non rappresentabilità delle grandezze caratteristiche dell'automa con un singolo bit, è compensata dal vantaggio di simulare direttamente il valore della funzione di distribuzione, e quindi dalla possibilità di evitare medie statistiche sullo stato di molte cellule. Cisco System società statunitense fornitrice di routers, fondata nel 1984 a San Josè, nella Silicon Valley, da un gruppo di ricercatori della Standford University. La C. produce componenti essenziali per il funzionamento di Internet, prodotti hardware e software, utilizzati per creare infrastrutture di rete che consentono agli utenti accessi veloci alle informazioni, indipendentemente dalla loro collocazione geografica e dal tipo di sistema usato. È stata inoltre una delle prime società a sperimentare il commercio elettronico: la maggioranza delle sue vendite avviene infatti attraverso il suo sito Internet. Client s. ingl. usato in it. come sm. (propr. cliente). In informatica, componente software del modello di architettura c.-server impiegato per contattare e ottenere dati da un programma server residente su un elaboratore remoto. Il programma c., installato su un personal computer, gli permette di trasferire dati dai server della rete informatica a se stesso. Client server s. ingl. (client, cliente + server, servitore) usato in it. come sm. In informatica, modello di architettura che prevede per ogni utente di una rete di elaboratori la disponibilità di un programma client capace di metterlo in relazione con un programma server residente in un elaboratore remoto; il server contattato fornisce le indicazioni richieste al client che le trasferisce sulla macchina su cui è installato, a disposizione dell'utente. Tutti gli strumenti di Internet destinati alla ricerca si servono di questo modello. Clock s. ingl. (orologio), propriamente sincronizzatore, temporizzatore. Il c. è un dispositivo, un oscillatore stabile, che genera una serie di impulsi elettrici la cui frequenza è fissa e controllata con precisione molto elevata. Il dispositivo effettua transizioni fra due stati caratterizzati da due diversi livelli di tensione e da due periodi caratteristici di permanenza in ciascuno stato. Spesso i due periodi sono uguali e quindi la durata dell'impulso è la metà del periodo di ripetizione dell'impulso stesso. Il dispositivo è impiegato per avviare le azioni di un circuito logico e per sincronizzare i diversi circuiti di un'apparecchiatura quale un elaboratore elettronico, che è una macchina sincrona scandita dal clock. In quest'ultimo caso la frequenza del c. (oggi dell'ordine dei milioni e decine di milioni di hertz) controlla le parti più veloci, mentre i componenti più lenti sono controllati da sottomultipli della frequenza di base. COBOL sigla dell'ingl. Common Business Oriented Language. In informatica, linguaggio specifico con il quale è possibile descrivere in forma normalizzata procedure di elaborazione orientate alla risoluzione di problemi commerciali. Il C. è strutturato sulla base della lingua inglese sia per quanto riguarda la logica, sia per il simbolismo che impiega. A un sistema di elaborazione dotato di compilatore possono essere sottoposti programmi redatti in C. e il compilatore li traspone in moduli di linguaggio macchina eseguibili dal sistema stesso o da sistemi compatibili. Essendo il C. costituito da frasi normalizzate, oltre che come linguaggio di programmazione si usa come mezzo di comunicazione. Codice binario Insieme di regole che consentono di convertire qualsiasi messaggio in un alfabeto composto da due soli simboli: 0 e 1, detti bit (dall'inglese BInary digiT, cifra binaria). Il codice binario è particolarmente importante in informatica dove la rappresentazione dei dati all'interno di un computer attraverso i due soli stati 0 e 1 può corrispondere alla presenza o all'assenza di un segnale (passaggio o meno di una corrente, direzione di magnetizzazione di un'area di supporto magnetico, presenza o meno di una carica elettrica in un condensatore). Poiché è poco pratico lavorare con i singoli bit (un numero come 345, di tre sole cifre nel sistema decimale, diviene 101011001 nel codice binario, cioè risulta composto da 9 bit), li si riunisce in gruppi di quattro (nibble) oppure di 8 (byte). Conversione di un numero binario in numero decimale. Poiché fa uso di due soli simboli per rappresentare l'informazione, il codice binario si dice in base 2. A ogni posizione nel numero binario corrisponde una potenza di 2 (la successione crescente di potenze va da destra a sinistra). Sommando i valori che si ottengono moltiplicando il valore della cifra binaria per il valore della potenza di 2, si ottiene il corrispondente valore decimale. Per es., considerando il numero binario 1 0 0 1 0 1 1a ogni posizione corrispondono le seguenti potenze di 2 26 25 24 23 22 21 20che equivalgono a 64 32 16 8 4 2 1Il numero decimale si ottiene moltiplicando i bit per le potenze di 2 corrispondenti 1 ¥ 64 + 0 ¥ 32 + 0 ¥ 16 + 1 ¥ 8 + 0 ¥ 4 + 1 ¥ 2 + 1 ¥ 1 = 75 Codificatore sm. e agg. (f. -trice) [sec. XIX; da codificare]. 1) Chi codifica; raccoglitore o compilatore di norme. 2) Dispositivo per la trasposizione in codice di dati introdotti in linguaggio riconoscibile; in partic., nei sistemi di elaborazione elettronica, sono presenti c. che trasformano simboli alfabetici e numerici in simboli del codice binario; nelle telecomunicazioni servono per l'emissione di informazioni codificate. Codificazione 1) Nelle telecomunicazioni, emissione di informazioni, mediante impiego di adatto codice, realizzata a mezzo di appositi apparati detti codificatori. 2) Nei sistemi di elaborazione: A) traduzione di un programma per la soluzione di un problema, in una sequenza d'istruzioni in linguaggio accettabile dall'elaboratore. B) Sistema atto a individuare, in modo certo e inequivocabile, per mezzo di un insieme di più cifre costituenti un numero (codice numerico) o cifre e lettere (codice alfanumerico) prodotti, persone, o qualsiasi altro raggruppamento più o meno omogeneo. I numeri e le lettere del codice vengono scelti in modo da rappresentare quelle caratteristiche del soggetto codificato che potranno essere oggetto di successive elaborazioni: p. es., età, sesso, luogo di nascita e residenza per le persone; lingua, editore e titolo per un libro. Esempi di c. numerica sono il codice di avviamento postale e il codice a barre, che individua molti prodotti industriali; il codice fiscale è invece di tipo alfanumerico. La c. consente l'elaborazione automatica, per mezzo del calcolatore elettronico, di quei dati, relativi alle persone o ai prodotti codificati, che sono contenuti nel numero di codice. COMIT in informatica, programma compilatore scritto presso il MIT (Massachusetts Institute of Technology) per l'elaborazione elettronica di dati non numerici. Concepito per lo studio dei problemi della traduzione automatica, è utilizzato particolarmente nella ricerca di informazioni su schedari e negli studi filologici. Compact Disc loc. inglese (disco compatto), comunemente usata nella forma abbreviata CD (o C.D.). Supporto fisico di registrazione e di riproduzione della musica che ha rivoluzionato l'alta fedeltà negli anni Ottanta del Novecento. È infatti con il lettore per compact disc (compact disc player), uscito per la prima volta dai laboratori Philips nel 1980, che questo supporto ha spiazzato il microsolco a 33 giri (Long playing o Lp). Il compact disc per riproduzione musicale ha un diametro di 120 mm, uno spessore di 1,2 mm e una durata massima di 75 minuti di ascolto. Le informazioni musicali, digitalizzate tramite un sistema analogico/digitale che campiona il segnale elettronico istantaneo “del suono” (a una frequenza doppia, quadrupla e anche ottupla della massima frequenza sonora) e lo trasforma in sequenze di bit, ossia serie di “uno” e “zero”, sono contenute in microscopiche buche (pits), la cui presenza (o assenza) determina il modo con cui la luce laser viene riflessa. Dato che il fascio laser ha una lunghezza d'onda di 0,5 micron e un diametro di 1,2 micron, la buca standard (0,5×0,9 micron e profondità di un quarto di lunghezza d'onda) fornisce la risoluzione necessaria. Partendo da queste dimensioni di base, la traccia elicoidale, simile a quella degli Lp, può essere estremamente fitta dato che il suo spessore è attorno agli 1,6 micron (rispetto ai 100 circa di un Lp). La capacità di accumulo di un compact disc è quindi nell'ordine di 500 milioni di byte (4 miliardi di bit). La sua realizzazione è un processo tecnologico piuttosto complesso e di alta precisione: un disco di vetro (glass master) viene ricoperto con una speciale vernice (photoresistor) e viene successivamente inciso con un laser (della potenza di 20 mW) comandato dalle sequenze di zero e di uno. L'incisione viene resa permanente con un processo di sviluppo e argentatura. Dal master vengono poi derivati gli stampi secondo una procedura di filiazione simile a quella degli Lp. Si passa infine alla fabbricazione di massa dei compact disc, che vengono stampati, ricoperti con una superficie riflettente, dotati di uno strato protettivo, forati, etichettati e confezionati. In fase di riproduzione un altro laser di potenza assai inferiore (circa 2 mW) legge i segnali incisi dal primo, ovvero le sequenze di zero e uno, e un convertitore digitale-analogico ricostruisce fedelmente il segnale analogico che ricalca la musica. È questo segnale che entra nell'amplificatore tradizionale dell'hi-fi. Il vantaggio principale dei compact disc è la notevole diminuzione del rumore di fondo causato dalla puntina sul disco, dai graffi e dalla polvere. L'assenza di contatto meccanico fra il lettore e il compact disc garantisce inoltre l'eliminazione dell'usura e la conservazione dell'informazione per lunghi periodi. Le prestazioni potenzialmente superiori di questo supporto derivano anche da altri fattori e principalmente dai progressi della microelettronica: per esempio, un microprocessore consente di focalizzare esattamente il raggio laser sulle tracce e sulle microscopiche buche, tecniche specifiche eliminano gli errori di lettura, le ondulazioni e le eccentricità che si ripresentano a ogni giro vengono compensate con servosistemi elaborati. Viene consentita, senza pericolo di danneggiamenti, l'operazione di passare da un brano all'altro della registrazione, nonché la ricerca rapida del frammento di registrazione che si intende ascoltare, grazie alla presenza di una serie di dati informativi premessi, all'atto della registrazione, a ogni brano, e ad appositi comandi di cui è dotato il lettore di compact disc. Il compact disc, sviluppato essenzialmente per l'hi-fi, ha diverse altre applicazioni dati i vantaggi del sistema ottico/digitale come metodo di registrazione di grandi quantità di dati (economie nella programmazione di software e nella meccanica della lettura, tempi di accesso brevissimi, durata e sicurezza del supporto), come il compact disc per riproduzione video (CDV, Compact Disc Video, videodisco compatto) che, disponibile in diversi formati da 12, 20 e 30 cm, ha trovato poca diffusione per la limitata disponibilità di titoli, nonostante l'ottima qualità video e l'assenza di usura, quello con memoria a sola lettura (CD-ROM), e quello interattivo (CD-I, Compact Disc-Interactive), che offre la possibilità di utilizzare software interattivo, grazie al quale lo spettatore non è più solo un soggetto passivo, ma può essere parte attiva nello svolgimento del programma per l'esistenza di un duplice canale di comunicazione: dal mezzo all'utilizzatore e dall'utilizzatore al mezzo; come interfacce possono essere utilizzate la tastiera, lo schermo sensibile al tatto (touch sensitive screen o, semplicemente, touch screen), il mouse, la penna luminosa (light pen) e il joystick. Sono state digitalizzate sui CD-RO. grandi opere come enciclopedie e testi giuridici. Tuttavia, pur essendo stato lanciato agli inizi degli anni Ottanta, CD è considerato un prodotto superato, destinato a essere soppiantato da un nuovo supporto di grande versatilità, compatibile con i sistemi in uso, capace di contenere un maggior numero di informazioni, riscrivibile e non duplicabile, il DVD (Digital Versatile Disc). Questo supporto multimediale è destinato inoltre a sostituire la videocassetta e, in seguito, gli altri tipi di dispositivi asportabili per la registrazione di dati, dai floppy disc ai vari modelli di cartucce a nastro magnetico. Il compact disc tradizionale, comunque, potrà continuare a essere utilizzato perché i nuovi lettori digitali saranno progettati in modo da mantenere la capacità di leggerlo. Il suo successo ha avuto come naturale seguito l'introduzione del CD-ROM, seguita da quella del CD-R (Recordable), registrabile senza le costose attrezzature richieste da un compact disc tradizionale, e del CD-E (Erasable), registrabile più volte. Computer Definizione s. inglese usato in italiano come sm. Termine molto usato in campo internazionale per elaboratore elettronico. Il computer è una macchina programmabile volta a consentire l'elaborazione di informazioni di svariata natura come testi, numeri, immagini, suoni e (in forma sperimentale) odori. Il modello più diffuso è quello classico della macchina di Von Neumann e la tecnologia prevalente è l'elettronica. Tale modello prevede la presenza di un processore, di una memoria primaria, di una memoria secondaria, di dispositivi di input-output e di un bus di sistema deputato a collegare tutte queste unità. Processore Il processore o CPU (Central Processing Unit) è il cuore del computer, l'unità preposta all'elaborazione vera e propria, in grado di eseguire semplici operazioni quali addizioni, moltiplicazioni e confronto di numeri. La CPU esegue tali operazioni in sequenza sulla base delle istruzioni contenute nei programmi. I programmi sono per l'appunto sequenze di istruzioni, eseguibili da un processore, e risiedono nella memoria primaria (o principale). La CPU si compone di diverse parti. Un importante componente di un processore è il clock. Questo è una sorta di contatore (una sua singola fase è detta ciclo), che scandisce la velocità con cui le istruzioni vengono eseguite dal processore stesso. Alcune istruzioni richiedono un singolo ciclo per essere eseguite, mentre altre, più complesse, possono richiederne diversi. Nei processori più innovativi possono essere eseguite più istruzioni in un singolo ciclo di clock. La frequenza del clock di un processore è uno degli indici della sua velocità e funzionalità. Se di uno stesso processore esistono diverse versioni con velocità di clock diverse, quella con velocità più alta sarà generalmente la più efficiente (ma anche la più costosa). Per modelli di processore diversi questo tipo di confronto non è sempre significativo. Negli ultimi anni del Novecento si è assistito a un vero boom nell'incremento del clock dei processori. I primi processori per Personal Computer (quei computer di costo contenuto diffusissimi ormai in tutti i luoghi di lavoro e nelle abitazioni) avevano frequenze di clock di pochi MHz, successivamente sono diventati disponibili a un prezzo più che contenuto processori con clock di 1000 MHz o più. Esempi classici di CPU sono il Motorola 68000, che ha equipaggiato diversi computer, fra cui alcuni modelli della Apple, o ancora il processore Sparc, creato dalla Sun Microsystems. Ma le CPU più diffuse e più conosciute sono senz'altro quelle prodotte dalla statunitense INTEL. Questa famiglia di processori annovera modelli famosissimi quali: INTEL 486 e INTEL Pentium. Quest'ultimo, con i suoi successivi sviluppi (Pentium II, Pentium III e Pentium IV), è il processore più diffuso nei moderni PC. La società statunitense AMD, dopo essersi imposta sul mercato con processori quali K6 e K6 II ha potenziato il processore Athlon, che può raggiungere la soglia di 1 GHz per il suo clock. Al riguardo è interessante citare il fatto che la Compaq sta sviluppando, utilizzando processori Alpha, uno dei più potenti supercalcolatori mai costruiti nella storia. Questo calcolatore sarà dotato di circa 2000 processori con clock a 1,25 GHz, o in alternativa 2500 di tali processori con clock a 1 GHz. Si prevede che esso sarà in grado di eseguire fino a 5 trilioni di operazioni al secondo. I primi computer eseguivano un insieme piuttosto limitato di istruzioni, per lo più elementari; con il progredire della tecnica e della loro diffusione, è divenuto possibile dotare tali elaboratori di un insieme di istruzioni più ampio. Questo tipo di processori è in genere denominato di tipo CISC (Complex Instruction Set Computer). I processori CISC hanno dominato la scena del mondo dei computer dagli anni Sessanta e le case più famose, come per esempio I.B.M. (maggiore produttrice di Mainframe, macchine di grande potenza elaborativa utilizzate da grandi organizzazioni quali banche o enti pubblici) o la stessa INTEL hanno equipaggiato i loro computer con questo tipo di processori. Con un approccio diametralmente opposto nella progettazione di processori è stato realizzato il RISC (Reduced Instruction Set Computer), che prevede la possibilità di eseguire poche istruzioni, semplici ma molto veloci. I DEC Alpha, gli UltraSparc della Sun, i Power PC Motorola e i G3 e G4 utilizzati sui Macintosh si basano sull'approccio RISC o su quelli da esso derivati. In effetti c'è da dire che sebbene i processori RISC siano i più efficienti, i processori più diffusi sono gli INTEL Pentium, che non sono completamente RISC, ma hanno solo in parte assorbito le idee alla base di questa architettura, in quanto il passaggio a un'architettura RISC non li renderebbe compatibili con i vecchi INTEL 8086, processori in dotazione ai PC I.B.M. dei primi anni Ottanta. Architettura del computer Esistono diverse varianti dell'architettura classica del calcolatore, volte generalmente ad aumentare le prestazioni dei computer stessi. Alcune di queste, sviluppate per scopi particolari, sono state poi adottate anche sui modelli di calcolatori più diffusi in commercio. Sebbene diverse fra loro, queste tecniche hanno in comune un elemento fondamentale: il parallelismo. I computer paralleli sono stati sviluppati già negli anni Sessanta e Settanta, essenzialmente per velocizzare il calcolo. Le prestazioni di un computer sono determinate da molteplici fattori. Per quanto riguarda il processor,e molto importante è la velocità del suo clock (come visto, a parità di modello, aumentando il clock, aumentano le prestazioni), il numero e la velocità dei registri interni al processore e la sua architettura (16, 32 o 64 bit). Tuttavia c'è un limite alla crescita di questi fattori, dettato dallo stato della tecnologia. La velocità del clock, per esempio, non può essere aumentata al di là di certi valori (che pure evolvono nel tempo), se non disponendo di nuovi materiali e di sistemi per dissipare velocemente il calore del processore stesso. Raggiunti i limiti dettati dalla tecnologia in un certo momento, per aumentare le prestazioni dei computer non c'è che sviluppare un'architettura differente. Molti tentativi sono stati fatti in questo senso, e il più diffuso tra essi è, come già detto, il parallelismo: un computer parallelo è quello dotato non di una, ma di più unità elaborative, che operano contemporaneamente, cioè appunto in parallelo fra loro. Esistono, infatti, due tipi di parallelismo: il parallelismo a livello di istruzione, che prevede generalmente la presenza di un solo processore, e il parallelismo a livello di processore vero e proprio, che prevede la presenza di diversi processori (spesso in gran numero), che cooperano alla risoluzione di un medesimo problema. L'esecuzione di una singola istruzione di un programma comporta diverse fasi. L'istruzione deve essere caricata dalla memoria, decodificata e devono essere reperiti i suoi operandi; si deve procedere, poi, all'esecuzione dell'istruzione vera e propria e, infine, si devono impostare alcuni registri, a seconda del risultato dell'istruzione stessa. L'idea alla base del meccanismo chiamato pipeline è quello di far svolgere, relativamente a istruzioni diverse, tali fasi contemporaneamente. Un processore dotato di pipeline è, per esempio, in grado di eseguire un'istruzione I1, di decodificare un'altra istruzione I2, per prepararla alla successiva esecuzione, e contemporaneamente di caricare una terza istruzione I3 dalla memoria, eseguendo così tre porzioni di istruzioni insieme, anche se in fasi diverse. In questo modo il numero di istruzioni eseguite nell'unità di tempo si triplica rispetto a un processore convenzionale. Le istruzioni di un programma, però, non vengono sempre eseguite nello stesso ordine in cui si succedono nel programma stesso. Esistono, infatti, le istruzioni di salto, che consentono di passare l'esecuzione del programma a una qualsiasi altra istruzione del programma stesso. Dunque, in generale, non è possibile determinare, data una certa istruzione I1, quale sarà la successiva istruzione I2 eseguita. Questo comporta che, se un processore ha una pipeline in cinque fasi (cosa che tipicamente avviene), la sua velocità non sarà di cinque volte superiore a quella di un processore convenzionale, ma forse solo di due. La pipeline è generalmente adottata dai processori RISC: tuttavia anche processori non RISC hanno adottato questo meccanismo. Una estensione dell'architettura pipeline è la pipeline doppia. L'idea è di utilizzare appunto due pipelines che eseguano in parallelo coppie di istruzioni, per incrementare così la velocità di esecuzione di un programma. In realtà, per poter eseguire contemporaneamente due istruzioni è necessario che queste non siano in conflitto fra loro, per esempio che non utilizzino entrambe uno stesso registro, e inoltre che l'una non abbia bisogno del completamento dell'altra per essere eseguita (per esempio una sequenza di operazioni matematiche). Dunque non sempre è in realtà possibile l'esecuzione contemporanea di due istruzioni, anche disponendo di due pipelines. Per fare un esempio concreto, il processore INTEL Pentium disponeva appunto di due pipelines, chiamate pipeline principale ('u' pipeline) e pipeline secondaria ('v' pipeline),quest'ultima dedicata a eseguire solo alcune istruzioni di tipo aritmetico. Da notare, inoltre, che la presenza di una doppia pipeline poteva essere sfruttata solo da particolari programmi predisposti ad hoc. Tanto per dare un'idea dell'utilità della doppia pipeline, si può citare il fatto che, in una serie di esperimenti con programmi di tipo aritmetico, il processore INTEL Pentium risulta essere veloce il doppio di un processore INTEL 486 dotato di uno stesso clock e di una sola pipeline. Con programmi di tipo generale la differenza di velocità è meno netta. Si potrebbe pensare di sviluppare processori costituiti da un numero maggiore di pipelines, al fine di aumentare il numero di istruzioni da eseguire in parallelo: tuttavia questo approccio non trova molta applicazione, principalmente perché richiederebbe la necessità di replicare un gran numero di componenti della CPU, con un guadagno di prestazioni limitato. Un approccio diverso alla soluzione di questo problema è quello di dotare la CPU di una sola pipeline, in cui però una delle fasi, in particolare quella di esecuzione vera e propria dell'istruzione, è replicata diverse volte. In pratica vi saranno una sola unità per caricare le istruzioni, una per decodificarle, una per caricare gli operandi e molte per l'esecuzione vera e propria delle istruzioni stesse. La considerazione alla base di questo approccio è che la fase di esecuzione vera e propria dell'istruzione è la più lenta. Dunque, in una pipeline semplice, le istruzioni in esecuzione nelle varie fasi dovranno spesso attendere che si liberi l'unità deputata all'esecuzione vera e propria dell'istruzione stessa. Replicando questa unità si eliminerà questo collo di bottiglia e il numero di istruzioni portate a termine nell'unità di tempo sarà maggiore. Questo tipo di architettura è detta superscalare ed è, per esempio, adottata dal processore INTEL Pentium II. Un altro modo di aumentare le prestazioni dei calcolatori è quello di dotarli di molti processori. Si parla allora dei già citati computer paralleli.. Esistono numerose tipologie di computer paralleli, tutti basati sulla medesima filosofia di fondo: molti processori lavorano più velocemente di uno. I computer paralleli sono utilizzati prevalentemente in ambiente scientifico o militare, per eseguire calcoli molto complessi legati alla risoluzione di particolari problemi. Tuttavia, date le grandi richieste di potenza elaborativa formulate da aziende e pubbliche amministrazioni, sempre più diffuso è l'utilizzo di tali calcolatori in ambiti diversi. In questa ottica si può considerare il primo esempio di computer parallelo: l'array computer o computer vettoriale. Molti problemi matematici legati, per esempio, alla fisica, alla chimica o all'ingegneria richiedono di effettuare calcoli non su singoli numeri, ma su insiemi di numeri (per esempio matrici: una matrice è un insieme di righe e colonne riempite da numeri). Un array computer è quello dotato di un gran numero di processori, che eseguono contemporaneamente la medesima operazione su dati diversi (per esempio sui vari numeri che compongono una matrice). Calcolatori di questo tipo possono essere impiegati anche nell'elaborazione di immagini digitali: un'immagine in forma digitale è costituita proprio da una o più matrici di numeri. Un'alternativa semplificata all'array processor, che non è tuttavia un computer parallelo vero e proprio, in quanto i vari processori che lo compongono eseguono in un certo istante tutti la medesima istruzione su una memoria a loro riservata, diversa per ciascuno, è il vector processor: esso si presenta esternamente come un array processor, ma in realtà è costituito da un hardware più semplice. La nascita dei vector processors è da ricondursi alla difficoltà costruttiva degli array processors, al loro alto costo e alla loro difficoltà di programmazione. Una famosa casa costruttrice di vector processor è la Cray Research, fondata da Seymour Cray, un nome molto noto nell'ambito dei calcolatori ad alte prestazioni. Un multiprocessore è invece un calcolatore dotato di molte CPU, fra loro autonome, che condividono la memoria centrale. Ciascun processore è del tutto autonomo dagli altri, può eseguire istruzioni indipendentemente dagli altri e accedere a una qualsiasi cella della memoria centrale. Computer di questo tipo sono stati prodotti con svariate architetture, ma presentano tutti un medesimo problema: è molto complesso dal punto di vista tecnologico dotarli di un numero elevato di CPU. In particolare è critica la gestione del flusso di dati (ciascun processore deve poter comunicare con l'intera memoria e questo richiede, se il numero delle CPU è elevato, un numero di interconnessioni troppo alto). Un'alternativa è quella di connettere le varie CPU alla memoria tramite un unico bus comune, ma ciò è molto penalizzante dal punto di vista delle prestazioni. In compenso i multiprocessori risultano relativamente semplici da programmare. I vari processori possono, infatti, comunicare e scambiarsi dati tramite la memoria condivisa. Date le difficoltà costruttive dei multiprocessori si è sviluppata una famiglia alternativa di computer paralleli: i multicalcolatori. Un multicalcolatore è costituito da molti processori interconnessi fra loro e dotati ciascuno di una sua memoria privata, ma non di una memoria comune condivisa fra tutti. I singoli processori comunicano fra di loro, scambiandosi messaggi. Generalmente non accade che ogni processore sia connesso a tutti gli altri, ma solo a un numero limitato di questi (i vicini). Per inviare messaggi a un processore P2, che non gli sia prossimo, il processore P1 dovrà inviarlo a un suo vicino, che provvederà a propagarlo con il medesimo meccanismo. I vari processori sono connessi fra di loro secondo svariate tipologie, quali griglie bidimensionali o tridimensionali. Mentre i processori di un multiprocessore in genere non superano le poche centinaia (valori tipici sono 16, 64: il calcolatore SP della IBM, uno dei più popolari multiprocessori, prevede fino a un massimo di 256 processori), sono stati costruiti multicalcolatori con oltre 10.000 nodi (per nodo si intende un singolo processore). Una categoria particolare di multicalcolatori è quella dei Cluster Computers. Questi, più che essere un unico calcolatore dotato di molti processori, sono un gran numero di calcolatori distinti, ciascuno dotato di una sua vita autonoma (almeno entro certi limiti), interconnessi fra loro con una rete di comunicazione efficiente. Il super calcolatore, che Compaq sta sviluppando e che si è precedentemente citato, appartiene per esempio a tale categoria di calcolatori. Altra categoria di calcolatori paralleli sono le NOW (Network of Workstation; Reti di Calcolatori). Si tratta di un insieme di calcolatori, diffusi commercialmente (Workstation o PC) e dunque reperibili a basso costo, interconnessi fra loro da una rete locale, anche questa in genere di tipo commerciale. Tali NOW sono in genere dotate di software particolare per ottimizzare le comunicazioni fra i vari calcolatori. Lo scopo iniziale di queste macchine era permettere lo sviluppo e il test di un software destinato poi a girare effettivamente su calcolatori paralleli ben più costosi. Il rapido sviluppo delle prestazioni dei PC, nelle reti locali e in generale dei componenti destinati al mercato di massa, ha fatto si che le NOW venissero più frequentemente utilizzate in ambienti di calcolo effettivi, al posto dei sofisticati ma costosissimi calcolatori paralleli (prodotti in quantità limitata). Un interessante progetto, che utilizza questo tipo di sistema di calcolo è in sviluppo presso la Johnson Graduate School of Management: esso è finalizzato a sviluppare e verificare la validità di modelli economici nel campo dell'industria dei manufatti. La cosa interessante è che, in una prima fase dello studio, sono stati sviluppati degli algoritmi di simulazione su normali PC con sistema operativo Windows. Tuttavia l'esecuzione di tali programmi su tale piattaforma di calcolo, nel caso di problemi reali, è improponibile (dato l'altissimo tempo di esecuzione richiesto). La soluzione adottata è stata quella di utilizzare un cluster di PC interconnessi con una rete veloce e basati su sistema operativo Windows. L'interesse deriva dal fatto che i programmi, nel passaggio alla nuova e molto più potente architettura di calcolo, non hanno richiesto alcuna modifica: dunque, un'altra interessante caratteristica dei clusters di PC e delle NOW è quello di poter eseguire (molto più velocemente) programmi sviluppati inizialmente su comuni PC. Il cluster utilizzato è stato messo a disposizione dall'Avanced Cluster Computing Consortium (AC3), un consorzio realizzato presso l'Università di Cornell per lo sviluppo di standard, software e sistemi per istituzioni economiche, governative o in campo educativo. Memoria Un altro componente essenziale di qualsiasi computer è la memoria. Essa si distingue in principale e secondaria. La memoria principale è quella che contiene i programmi in esecuzione (compreso il sistema operativo) e i dati su cui tali programmi operano. Si definisce memoria volatile, in quanto allo spegnimento del computer perderà il suo contenuto. Lo scopo di questa memoria non è dunque quello di mantenere le informazioni nel tempo, ma solo per il periodo necessario a che un programma venga eseguito. È da qui che la CPU preleva i programmi da eseguire e i dati su cui effettuare le operazioni, secondo le istruzioni dettate dai programmi stessi. La memoria secondaria è più lenta della memoria principale, ma è presente in quantità molto maggiore. Ha lo scopo di preservare le informazioni nel tempo: si tratta, dunque, di una memoria permanente, che mantiene le sue informazioni anche allo spegnimento dell'elaboratore. La memoria secondaria è disponibile su supporti molto diversi fra di loro. Il dispositivo di memorizzazione più diffuso è il disco magnetico. Esso è costituito da uno o più piatti di materiale magnetico e da testine sorrette meccanicamente da bracci e in grado di scrivere e leggere informazioni sui piatti magnetici. I dischi sono mantenuti in rotazione da un motore e le testine sono in grado di spostarsi radialmente rispetto ai piatti. I dischi presenti nei moderni computer hanno una capacità di memorizzazione dell'ordine di decine di Gigabyte (un Gb è circa un miliardo di byte , mentre la memoria principale è in genere dell'ordine di centinaia di Megabyte (un Megabyte è circa un milione di byte). Gli standard più diffusi per i dischi rigidi sono lo standard IDE e quello SCSI (si legge scasi). Essi hanno subito delle evoluzioni: per esempio i dischi IDE sono stati ormai sostituiti dai più veloci dischi EIDE. Più complessa è stata l'evoluzione dei dischi SCSI. Quelli originali (SCSI-1) trasferivano dati (in lettura o scrittura) alla velocità di 5 Mb al secondo, tramite un bus operante a 5 MHz. La versione più recente dello SCSI, Ultra SCSI, trasferisce oggi dati a 40 Mb al secondo e utilizza un bus a 20 MHz. Inoltre gli SCSI originali trasferivano i dati con un parallelismo di 8 bit per volta: Ultra SCSI trasferisce invece 16 bit per volta. Malgrado i progressi compiuti negli ultimi anni nelle prestazioni dei dischi fissi e nella loro affidabilità, le prestazioni di questi non possono definirsi soddisfacenti se paragonate con quelle della CPU, che hanno subito un incremento di gran lunga maggiore. Per ovviare a questa disparità sono state proposte varie soluzioni, una delle quali, in particolare, va imponendosi: il RAID (acronimo di Redundant Array of Independent Disks (ossia insieme di dischi a indipendenti). Esiste in varie versioni, le più comuni delle quali sono RAID 0 e RAID 1. Lo scopo di questo meccanismo è quello di aumentare le prestazioni dei dischi tradizionali (velocità di scrittura e di lettura) e di aumentarne l'affidabilità (tolleranza ai guasti). Se per aumentare la prestazione della CPU, quindi, si ricorre al parallelismo, il RAID si basa sul parallelismo. Un RAID consiste in un gruppo di dischi, ciascuno dotato della propria testina e unità di controllo e di un controllore RAID, che coordina l'attività dei vari dischi. Un RAID, sebbene consista in una batteria di dischi, esternamente (cioè dal computer a cui è collegato) è visto come un unico disco. L'idea alla base di RAID 0 è la seguente: quando il controllore RAID riceva una richiesta di scrittura di un file, lo suddivide in diverse parti, che scrive contemporaneamente (in parallelo e quindi in un tempo minore) sui vari dischi di cui è composto. Questa tecnica è nota come striping. Quando vi è un'operazione di lettura, sarà cura del controllore RAID 0 di cercare il pezzo di file appropriato. Da notare che il sistema operativo non deve in alcun modo preoccuparsi dei vari dettagli di questa operazione, che è gestita interamente dal controllore RAID. Questo tipo di RAID accelera le prestazioni in scrittura e in lettura. Purtroppo, l'affidabilità del sistema è inferiore a quella di un singolo disco tradizionale (la probabilità di rottura di uno fra i dischi che compongono un RAID è maggiore di quella di un solo disco). Uno schema alternativo di RAID molto diffuso è il seguente (RAID 1): quando si deve scrivere un file su disco, esso viene suddiviso in parti. Ciascuna di queste parti viene scritta più volte su dischi diversi (tipicamente due). Vi è dunque quella che si chiama una ridondanza nella memorizzazione dell'informazione. Il vantaggio di ciò è nell'affidabilità del sistema: quando si legge un file o una sua parte, il RAID è libero di reperirlo su dischi diversi, prendendo in considerazione una qualsiasi delle sue copie. Se si rompe uno dei dischi che compongono un RAID 1, i pezzi di file che contiene andranno persi, ma potranno essere reperiti su un altro disco. Si potrà così procedere alla sostituzione del disco rotto senza alcuna perdita di informazioni. Inoltre, poiché il file è memorizzato in pezzi su dischi diversi, le operazioni di lettura avvengono ancora in parallelo, con conseguente miglioramento delle prestazioni (anche la scrittura avviene in parallelo, ma, dato che i vari pezzi del file devono essere replicati su più dischi, il RAID 1 in generale non comporta un aumento della velocità di scrittura). Sistemi operativi Il computer è deputato all'esecuzione di determinati compiti sotto la guida di appositi programmi, costituiti da sequenze di istruzioni che il calcolatore è in grado di eseguire. L'insieme di questi programmi costituisce quello che viene detto software. Nell'ambito del software esiste, tuttavia, una particolare categoria, quella dei sistemi operativi. Un sistema operativo è un programma (in realtà un insieme di programmi) che ha essenzialmente lo scopo di rendere le risorse hardware di un computer disponibili ai programmi applicativi. L'evoluzione dei sistemi operativi prevede un sempre maggior ricorso a interfacce grafiche (GUI), per facilitare l'interazione dell'utente con la macchina. I sistemi operativi si distinguono quindi principalmente per il tipo di GUI che può essere “a carattere” oppure “a grafica”. Appartengono alla prima categoria i sistemi operativi utilizzati principalmente nei grossi centri di calcolo come Unix, Solaris, Dec o Linux, che possono comunque essere dotati di interfaccia grafica, residente tuttavia sui terminali dotati di protocollo X-term. Alla categoria dei sistemi operativi grafici appartengono quelli sviluppati appositamente per il mondo dei PC e quindi Windows, Mac-OS, Amiga OS e OS/2 di IBM. Programmi applicativi Per applicazioni, o programmi applicativi, si intendono tutti quei programmi il cui scopo non è quello di permettere il funzionamento del computer, ma di soddisfare le specifiche esigenze dell'utente. L'insieme delle applicazioni disponibili è vastissimo, data la grande versatilità del computer stesso. I primi computer avevano essenzialmente lo scopo di eseguire calcoli, dunque i primi programmi applicativi erano essenzialmente di tipo matematico, ma ben presto ci si rese conto che potevano vantaggiosamente essere utilizzati per memorizzare informazioni e per elaborarle. Tra i programmi applicativi va evidenziata una particolare categoria, detta software di base, che si interpone tra il sistema operativo vero e proprio e le applicazioni utente. Si tratta generalmente del data base, come Oracle, Informix o DB2 e dei servizi che gestiscono la comunicazione tra i vari processi che sono concorrentemente in esecuzione su una stessa macchina o su più macchine collegate in rete. Nell'ambito dell'informatica per le aziende è interessante citare una tecnologia, che ha una diffusione sempre maggiore: il data mining. Lo scopo del data mining (DM) è essenzialmente quello di analizzare in modo automatico grosse quantità di dati alla ricerca di regolarità e di ciò che, nell'ambito di tale disciplina, è conosciuto come pattern. Il DM è utilizzato prevalentemente nell'ambito delle aziende commerciali e in genere i dati da analizzare sono spesso contenuti in un data warehouse, che è un sistema adatto alla conservazione di grosse quantità di dati di tipo storico (archivi dei clienti e dei loro ordinativi negli ultimi anni). Lo scopo del DM è quello, a partire da grosse collezioni di dati, quali quelle possedute da banche o imprese manifatturiere, di ricavare informazioni significative e utili principalmente per prendere decisioni. Nell'ambito del DM sono previsti due modelli differenti: il modello di verifica e quello di scoperta. Il modello di verifica (verification model) prevede che l'utente fornisca, in input al sistema, un'ipotesi e gli chieda di verificarne la validità. In questo tipo di modello il sistema in realtà non estrae informazioni, limitandosi a verificare ipotesi. Il modello di scoperta prevede che il sistema individui in modo autonomo informazioni nascoste nei dati a disposizione, senza intervento esterno. Si può utilizzare un tale approccio per identificare in un data warehouse aziendale gruppi di clienti per una campagna pubblicitaria. Tale ricerca viene effettuata dal sistema senza formulare alcuna ipotesi: il sistema cercherà autonomamente di raggruppare i clienti in base a caratteristiche comuni che esso stesso individuerà Computer a comando mentale prototipo di computer tecnologicamente molto avanzato, che utilizza le onde cerebrali emesse dal sistema nervoso centrale, di cui negli anni Novanta sono stati sviluppati dei prototipi. Le ricerche sui computer a comando mentale sono in buona parte finanziate da organismi della Difesa, dato il loro valore strategico, per esempio, nel pilotaggio degli aerei, dove si richiedono tempi sempre più bassi di reazione da parte del pilota. In particolare, questi sistemi intendono captare, tra i diversi tipi di onde elettromagnetiche emesse dal cervello, quelle che possono rispecchiare un certo tipo di attività, amplificarle e utilizzarle per comandare un sistema elettronico. È accertato che il cervello produce una serie ben precisa di onde, comprese tra frequenze note. Per esempio, le onde a (tra 8 e 13 Hz) vengono emesse da un cervello sveglio in condizione di riposo; le b (13-30 Hz) da un cervello impegnato in un'attività complessa; le d (0,5-0,4 Hz) durante il sonno non-REM, le q (4-7 Hz) durante il sonno REM, quello in cui si sogna e si compiono rapidi movimenti degli occhi. Un tipo di onde a, dette onde m, viene emesso dal cervello quando questo organo controlla le funzioni motorie e sensoriali e in particolare dalla corteccia sensomotoria, che si attiva in modo particolare in presenza di stimoli sensoriali o quando bisogna attivare un movimento. Alla base aerea Wright-Patterson dell'Aeronautica statunitense sono state compiute ricerche sulle onde m, poiché è stato accertato che con un opportuno addestramento un individuo può, in un certo senso, esercitare un controllo sull'emissione di tali onde in presenza di determinati stimoli, pensando più o meno intensamente alla cosa che gli stimoli richiamano. Queste ricerche hanno condotto allo sviluppo di un sistema mediante il quale un pilota può comandare con la mente l'inclinazione di un aereo in un simulatore di volo. Il pilota indossa un casco con elettrodi che si appoggiano al cranio in coincidenza con l'area della corteccia sensomotoria. Davanti a lui, una serie di luci si accende e si spegne alla frequenza di 13,5 Hz, inducendo una serie di scariche elettriche di analoga frequenza nei neuroni dell'uomo. Questi riesce a modificare con la mente il ritmo imposto dall'esterno: se lo rallenta il simulatore dell'aereo vira a sinistra; se lo accelera, vira a destra. Un sistema analogo è stato messo a punto nei laboratori Wadsworth del Ministero della Sanità degli U.S.A. ed è basato su un casco simile a quello dell'esperimento precedente, indossato da volontari che riescono a muovere il cursore di un computer in alto o in basso a seconda del tipo di pensiero su cui impegnano la propria mente. Dei 25 volontari che si sono prestati all'esperimento, il 70-80% è riuscito in questa impresa. Uno di essi può addirittura muovere il cursore su e giù semplicemente pensando al concetto di “su” e a quello di “giù”. Dai precedenti studi nel campo, si è sviluppato l'Eyeglaze, un computer a comando mentale che legge 30 volte al secondo la posizione degli occhi su una tastiera visiva, individuando il persistere dello sguardo sulle lettere o sui tasti che si vogliono azionare, attraverso un sensore a raggi infrarossi posto sotto il suo schermo. Una ricerca compiuta in Austria (Politecnico di Graz), invece, non si basa sull'addestramento dell'uomo a produrre specifiche onde cerebrali, ma su computer a comando mentale in grado di riconoscere le diverse onde cerebrali emesse dal cervello di una persona quando sta pianificando un'azione e rivelate da un elettroencefalogramma. Quando l'uomo compie un movimento, infatti, nel suo cervello il comando viene pianificato proprio come una subroutine di un software; successivamente, il cervello invia ai muscoli i comandi opportuni per svolgere in sequenza le sotto-azioni che fanno parte del movimento desiderato. I ricercatori austriaci sono riusciti a istruire un computer a comando mentale affinché riconosca la sequenza elettroencefalografica che si manifesta nel cervello di un volontario quando questi muove un dito. Il segnale captato dall'elaboratore è servito per far muovere un cursore. Alla fine dell'addestramento, la macchina è riuscita a interpretare correttamente il movimento nell'85% dei casi. Altre sperimentazioni sono state condotte sulle possibilità di impiego di questo tipo di computer da parte di malati. Quello sperimentato dalla ricercatrice Rosalind Picard, del Massachusetts Institute of Technology, è stato programmato per riconoscere gli impulsi emanati dal cervello del paziente. Questo computer, però, riconosce soprattutto le reazioni di carattere biologico come il cipiglio, il battito irregolare del cuore e altre difficoltà del malato. Capta le manifestazioni attraverso sensori collocati sul corpo dell'ammalato che è posto davanti allo schermo, in più offrendo consigli o suggerimenti di aiuto. La Emory University di Atlanta, nel 1998, ha studiato, invece, un sistema per stimolare le cellule nervose di pazienti, non in grado di muoversi e di parlare, a interagire con il computer a comando mentale Esso è costituito da un'unità centrale e da un chip grande come una punta di una penna, che viene impiantato nella corteccia celebrale. Il chip, quindi collegato ai neuroni circostanti, lancia segnali semplici al computer, che risponde agli stimoli. Per il momento si tratta di semplici segnali come “su”, “giù”, “destra” e “sinistra”. Il chip è composto da 2 piccoli coni di vetro ricoperti da elementi chimici del sistema nervoso periferico del paziente. Riconoscendo questi agenti chimici, i nervi crescono attorno ai coni e li penetrano. Si creano così contatti e intrecci tra nervi e coni di vetro e si forma una specie di minicervello all'interno dei coni. Il fine di questa ricerca è allenare le cellule nervose a interagire con il computer, fino a mettere in grado l'ammalato di scrivere e ricevere lettere attraverso la posta elettronica di Internet. In una seconda fase, il computer a comando mentale potrebbe permettere ai paraplegici di accendere e spegnere le luci o di chiamare l'infermiera. Secondo le previsioni dei ricercatori, in futuro dovrebbero essere possibili diversi impieghi di questi sistemi da parte dei portatori di handicap per svolgere soprattutto azioni elementari. Computer a DNA ipotesi di elaboratore che impiega materiale biologico per la memorizzazione dei dati o per l'elaborazione delle informazioni. La ricerca di "sostituti del silicio", in grado di immagazzinare informazioni in spazi sempre più ristretti, ha condotto alla progettazione di computer che utilizzino, come elemento di memoria e come unità di calcolo, la molecola che è alla base di tutti gli organismi viventi: il DNA. A differenza degli elaboratori elettronici tradizionali, i computer a DNA non immagazzinano i dati utilizzando il calcolo binario, né si servono di formule matematiche per risolvere problemi, ma usano per le operazioni enzimi capaci di leggere, copiare e manipolare le informazioni, in quanto i loro dati sono strutture di molecole organizzate in stringhe di DNA. L'idea di un computer a DNA è stata formulata per la prima volta nel 1994 da Leonard Adleman e ancora non esistono veri e propri prototipi, ma soltanto progetti teorici, di cui il più avanzato è quello sviluppato, nel 1995 presso l'Università della California, battezzato TT-100, dalle iniziali di Test tube (provetta) e da 100 il numero di microlitri di DNA necessari. Il DNA può essere schematizzato come un sistema che elabora informazioni, partendo dalle "lettere-base" (i nucleotidi adenina, citosina, guanina e timina) e combinandole in un numero incredibile di "stringhe", che sono i codici biochimici i quali permettono a un organismo di vivere. Se le lettere-base vengono considerate come codici di informazione, le stringhe risultanti sono il prodotto dell'elaborazione di queste informazioni di base. Ogni frammento di DNA, quindi, può considerarsi come un microprocessore specializzato nello svolgere una determinata elaborazione, anche molto complessa, oppure un banco di memoria di dimensioni molecolari. In una singola molecola di DNA di un organismo superiore, che occupa lo spazio di 20 Å (200 milionesimi di millimetro), sono contenuti ca. 100 miliardi di basi nucleotidiche, pari all'incirca a 100 Gigabyte. Una provetta con qualche milione di molecole di DNA potrebbe immagazzinare così 100.000 Terabyte, cioè l'equivalente di 10 milioni di pellicole cinematografiche di 4 ore ciascuna. Altra tecnologia per la progettazione di computer a DNA è, inoltre, quella messa a punto dall'Università del Winsconsin- Madison, che consiste nel fissare stringhe di DNA su superfici di vetro e d'oro Computer a riconoscimento vocale elaboratore elettronico dotato di interfaccia azionabile attraverso comandi vocali. I primi computer a riconoscimento vocale sperimentati riconoscevano solo i comandi dati dalla persona che aveva messo a punto il sistema e scanditi lentamente; con l'incremento della velocità di elaborazione e di memorizzazione dei moderni microprocessori è stato, quindi, possibile realizzare computer azionabili da qualsiasi persona. I progressi nel riconoscimento della voce, oltre alla creazione di software per PC, ovvero programmi “intelligenti”, che consentono a un computer a riconoscimento vocale di scrivere sotto dettatura un testo con una bassa percentuale di errori o di rispondere a richieste di informazioni o ancora di impartire ordini per la navigazione in Internet, hanno prodotto esemplari dotati anche di hardware da indossare. Questi, già impiegati negli ultimi anni del Novecento nei laboratori di ricerca e nelle grandi industrie, possono essere utilizzati soprattutto da chi deve tenere le mani libere, come i chirurghi o i tecnici addetti alla manutenzione degli aerei, in quanto hanno due schermi a cristalli liquidi sovrapposti e molto sottili, che si aprono come due pagine di un libro, e possono gestire applicazioni diverse. Alcuni modelli hanno un piccolo visore da porre davanti all'occhio, che sostituisce lo schermo, altri si agganciano alla cintura come un walkman, altri ancora sono piccoli e ultrapiatti, tipo un'agenda elettronica, e si appendono al collo. Computer graphics espressione inglese di uso internazionale, per indicare la grafica al computer per l'esecuzione di disegni e immagini da realizzare, in bianco e nero o a colori, sia su schermo che su carta stampata. La computer graphics ha conosciuto una grande evoluzione, trasformandosi da strumento di disegno e progettazione 2D (bidimensionale) e 3D (tridimensionale) in generatore di ambienti tridimensionali animati. La potenza di calcolo messa a disposizione dai computer grafici, dotati di decine di processori che lavorano in parallelo sui vari oggetti che compongono l'ambiente da simulare, ha consentito di generare in poche ore di calcolo interi filmati di altissima qualità. Con questa applicazione vengono realizzati quasi tutti gli effetti speciali utilizzati in cinematografia: nel film Jurassic Park (1993), per esempio, gli attori reali si integrano con gli animali preistorici generati al computer, in altri film di animazione, come Toy Story (1995), tutti i fotogrammi del lungometraggio sono interamente realizzati al computer. Per ottenere questi effetti di altissimo realismo, sono stati elaborati particolari algoritmi matematici, detti di ray-tracing (tracciatura di raggi), che permettono ai processori grafici di gestire le luci, le ombre proiettate, i riflessi e la trasparenza in pochissimi nanosecondi. Grazie a questa tecnica, con i supercomputer grafici utilizzati a Hollywood si riesce a generare un'intera scena in poche ore di calcolo, a fronte dei diversi giorni che, ancora negli anni Novanta, occorrevano per eseguire le decine di milioni di calcoli trigonometrici necessari a generare un singolo fotogramma fotorealistico Computer quantistico ipotesi futuristica di computer che funziona integralmente sulla base dei fenomeni di fisica quantistica. La possibilità da parte dei fisici di osservare e controllare con sempre maggiore precisione il comportamento degli elettroni nelle loro dimensioni quantistiche (cioè nel mondo submicroscopico dove al posto della fisica classica vige la fisica quantistica) ha portato alla formulazione di una serie di teorie relative alla possibilità di realizzare computer quantistici, sfruttando alcune peculiarità del comportamento quantistico di una particella, ben diverso da quello proprio di una particella che si muove in un sistema di dimensioni macroscopiche quali gli odierni computer. L'applicazione della fisica quantistica all'elettronica non è nuova: nel 1957 il giapponese L. Esaki inventò il primo dispositivo elettronico quantistico, il diodo a effetto tunnel, noto anche come diodo di Esaki. Questo risultato ha condotto poi alla realizzazione di altri dispositivi elettronici che sfruttavano proprietà quantistiche degli atomi, come il primo laser a semiconduttori, il transistor ad alta mobilità di elettroni (Hemt), diventato di uso comune. Ma pur utilizzando fenomeni puramente quantistici al loro interno, tali dispositivi hanno un output che appartiene al mondo della fisica classica, in quanto sono interconnessi con altri dispositivi elettronici secondo le regole tradizionali dei sistemi macroscopici. Pur avendo prestazioni decisamente migliori dei tradizionali dispositivi a semiconduttore, l'insieme della struttura (apparecchiatura elettronica, computer ecc.) di cui fanno parte è governato dalle leggi della fisica classica. Alla fine degli anni Ottanta alcuni ricercatori hanno, invece, cominciato a ipotizzare un tipo di computer che funzionasse integralmente sulla base dei fenomeni della fisica quantistica, quindi secondo processi e algoritmi profondamente diversi da quelli tradizionali. In particolare, D. Deutsch (Oxford) ha ipotizzato il concetto di “parallelismo quantico”, utilizzando il concetto della “sovrapposizione” tipico della fisica quantistica. Sulla base di questo concetto, teorizzato negli anni Trenta del Novecento da E. Schrödinger, un elettrone in un atomo non ha una sola posizione definita, ma può trovarsi in una varietà di possibili collocazioni, ognuna descritta da un diverso stato quantico. Si trova cioè in una sovrapposizione di stati. Tuttavia, quando si cerca di “vedere”, o meglio di “misurare” questa particella, la sovrapposizione viene distrutta ed essa viene forzata a trovarsi in una sola posizione. Un computer quantistico può essere immaginato come formato da un registro di “celle” ognuna delle quali può essere costituita da 1 atomo in grado di assumere, per esempio, 10 diversi stati energetici e quindi 10 “superposizioni”. Tali 10 superposizioni possono essere fatte corrispondere a una stringa di 10 cifre binarie, laddove in 1 cella di un computer tradizionale (un transistor) è possibile ottenere soltanto 2 cifre binarie, la posizione 0 o la posizione 1. Per rimanere nell'esempio, si avrebbe quindi un guadagno di un fattore cinque. Quando però il numero delle celle viene aumentato e passa a 2, se in un computer tradizionale si possono ottenere 4 cifre binarie, in un computer quantistico ogni stato di sovrapposizione della prima cella si combina con ogni stato possibile della seconda, ottenendo quindi 100 cifre. Proseguendo di questo passo, si nota che la crescita della quantità di numeri “contenibili” varia esponenzialmente con il numero delle celle, assumendo ben presto dimensioni inimmaginabili. Il concetto di computer basato sulla sovrapposizione di stati quantici ha avuto un importante sviluppo nel 1994, quando il ricercatore statunitense P. Shor (AT&T) ha annunciato di aver ottenuto il primo algoritmo col quale eseguire calcoli in un computer quantistico. Grazie a questo algoritmo, che sfrutta la crescita esponenziale della capacità di un computer quantistico, è stato calcolato che si potrebbe fattorizzare un numero di 200 cifre decimali in poco più di un millisecondo, laddove il più potente supercomputer attuale impiegherebbe un tempo superiore a quello dell'età dell'Universo (15 miliardi di anni). Tali prestazioni, ovviamente soltanto teoriche, si scontrano però con un problema legato al fatto che per utilizzare un computer quantistico bisogna prima o poi passare dal mondo quantistico al mondo della fisica classica: per esempio, per leggere il risultato di un calcolo. Come aveva predetto Schrödinger, quando si cerca di misurare lo stato di un atomo in sovrapposizione di stati, la sovrapposizione sparisce e l'atomo viene forzato a occupare un solo stato. Per cui, cercando di leggere, cioè misurare l'output di un computer quantistico, tutto il beneficio del parallelismo quantico svanirebbe. Per risolvere il problema, lo stesso Shor ha proposto di sfruttare un fenomeno di interferenza, col quale le diverse sovrapposizioni di stati interferiscono l'una con l'altra (ancora a livello quantistico), producendo come risultato una serie di altri fenomeni che possono non appartenere più alla sfera quantistica e che quindi possono essere “letti” anche da un sistema che opera nel mondo macroscopico della fisica classica. Sulla base di queste teorie, alcuni ricercatori hanno incominciato a realizzare sperimentalmente dispositivi logici per il calcolo quantistico, basati, per esempio, su atomi di berillio (National Institute of Standards and Technology, U.S.A.), superraffreddati a 1 K per poter lavorare con i livelli più bassi di energia. La ricerca sul computer quantistico riceve notevoli finanziamenti sia in U.S.A. (da parte della Defense Advanced Research Project Agency – D.A.R.P.A. – che ha creato un Institute for Quantum Information and Computing), sia in Europa (Programma T.M.R.), sia in Giappone. Le applicazioni di tale tipo di computer, se mai lo si riuscisse a realizzare, sono amplissime e trovano spazio in tutti i settori in cui vengono utilizzati i supercomputer tradizionali, con la possibilità di aumentare in maniera elevatissima le capacità di calcolo: simulazione di sistemi complessi, meteorologia, fisica dei materiali, fisica delle particelle, calcolo di codici crittografici Computerizzare v. tr. [sec. XX; da computer]. Introdurre i computer per eseguire determinate operazioni o prestare particolari servizi (in precedenza assolti con sistemi più tradizionali); praticare, trattare, elaborare mediante computer: computerizzare i dati anagrafici, le previsioni meteorologiche; un sistema di puntamento del bersaglio del tutto computerizzato. Connessione sf. [sec. XVI; dal latino connexĭo-ōnis]. Atto ed effetto del connettere; legame di relazione, di interdipendenza; relazione stretta fra due o più cose, per lo più fig.: connessione di fatti; la connessione tra la prima e la seconda parte del romanzo In informatica, collegamento tra elaboratori atto a consentire lo scambio di dati; connessione dial up, o dial up access, connessione a Internet realizzata mediante un modem, una linea telefonica commutata, un service provider e appositi programmi. Consòle unità di comunicazione con l'elaboratore costituita da una macchina per scrivere e da un quadro di comando. Dalla console è possibile effettuare controlli e modificazioni dei programmi e dei dati, avviare, interrompere e terminare le elaborazioni in corso e intervenire costantemente nel processo elaborativi Cookie s. anglo-amer. (propr. biscotto) usato in it. come sm. In informatica, piccolo file creato da un server di Internet nel disco rigido del computer dell'utente, allo scopo di registrare le operazioni compiute in rete come, p.es., i siti visitati o gli acquisti effettuati CPI sigla dall'ingl. Characters Per Inch (caratteri per pollice). Misura della densità di stampa di una stampante. Valori tipici mutuati dalla dattilografia sono il pica (10 cpi) e l'elite (12 cpi). CP/M sigla dall'ingl. Control Program for Microcomputers (programma di controllo per microelaboratori). Sistema operativo, ossia insieme di programmi di gestione delle risorse dell'elaboratore (incluse le unità periferiche), nato insieme ai microprocessori e molto usato negli anni Ottanta. Creato originariamente per i microcalcolatori che impiegavano microprocessori a 8 bit, è stato esteso ai microprocessori a 16 bit.L'MSDOS ha ereditato molte delle funzioni e dei comandi del CP/M, che sono poi diventate standard con la diffusione di Windows. CPS sigla dall'ingl. Cycle Per Second (ciclo al secondo). Unità di misura della frequenza pari a 1 hertz. È, p. es., la velocità di trattamento, trasferimento, stampa dell'informazione. Per gli elaboratori elettronici individua la velocità di scansione dell'orologio interno (p. es. per i PC la gamma di velocità è passata dalle migliaia di hertz degli anni Settanta alle decine di milioni degli anni Novanta). CPU sigla dall'ingl. Central Processing Unit (unità centrale di elaborazione). Rappresenta il cuore dell'elaboratore elettronico e ha come funzione fondamentale quella di elaborare informazioni digitalizzate. La C. è un organo complesso che effettua operazioni aritmetiche, logiche e di controllo tramite le due unità di cui è composta: l'unità logico-aritmetica (ALU) e l'unità di controllo. Le sue operazioni sono regolate da un temporizzatore (clock) interno o esterno mediante impulsi prodotti da un oscillatore libero, in genere un oscillatore al quarzo sintonizzato su una frequenza determinata. La C. viene utilizzata sia per trasferire alla memoria istruzioni e dati, sia per estrarre dalla memoria le istruzioni eseguendole in successione ed elaborando pertanto i dati secondo il programma. La C. accede alla memoria, ai dispositivi di ingresso/uscita (interfacce telematiche, ecc.) e alle periferiche (stampanti, memorie ausiliarie di massa, plotter, video, tastiera, ecc.) tramite gruppi di conduttori paralleli (bus) il cui numero è uno dei caratteri distintivi dell'elaboratore, in quanto coincide con il numero dei bit elaborati contemporaneamente. I grandi elaboratori progettati in origine per i calcoli scientifici erano a 32 bit per permettere la precisione richiesta, ma con l'affermarsi della microelettronica e dei calcolatori ad ampia diffusione (i personal computer) i limiti di progetto del chip hanno determinato la dimensione del bus e dell'elaborazione corrispondente. Il primo chip a 4 bit è del 1974 cui è seguito, l'anno dopo, quello a 8 bit (1 byte). Successivamente si è passati a 16 bit (1 parola) e oggi a 32 bit. Con i nuovi chips a 64 bit, immessi sul mercato nel 1989, si può considerare superato, anche per i personal computer, lo standard degli elaboratori scientifici più potenti degli anni Cinquanta Cracker Pirata informatico, detto anche hacker, che si introduce nei sistemi operativi di altri computer con finalità illegali Crash In informatica, blocco dell'attività di un computer, causata da una disfunzione nell'hardware o nel software del sistema Criptare v. tr. [sec. XIX; dal gr. kryptō, nascondere]. Cifrare segnali o insieme di dati in modo da renderli indecifrabili a chi non ne possiede i diritti d'accesso: c. un numero sul cellulare, una trasmissione televisiva. Cursore sm. [sec. XIV; dal lat. cursor -ōris, propr. che corre, da currĕre]. 1) Nel tribunale ecclesiastico, l'ufficiale che ha il compito di notificare gli atti giudiziari e di eseguire le sentenze. In elettronica, simbolo (un trattino, un segno di disuguaglianza, un rettangolo) che appare sul visualizzatore o sullo schermo del terminale di un elaboratore e che indica la posizione “attiva” dove verrà inserito il successivo carattere. È in genere ben evidenziato sul fondo e a volte lampeggiante. Viene comandato dalla tastiera tramite gli appositi tasti o da comandi mobili come il mouse e il joystick Cyber [sec. XX; dall'inglese cybernetics, cibernetica]. Prefisso usato in termini composti di formazione moderna che indica attinenza con la cibernetica o con l'informatica. Il concetto cyber viene spesso dilatato ad abbracciare la produzione culturale, le relazioni sociali e persino le mode, gli stili di vita e i comportamenti individuali che assumono il “paradigma cyber” come vero e proprio linguaggio espressivo e forma di comunicazione D DAB acronimo di Digital Audio Broadcasting, sistema per la trasmissione radio digitale. Sviluppato dal progetto Eureka 147 (un consorzio mondiale di emittenti, gestori di network, aziende di elettronica di consumo e istituti di ricerca), il D. consente di ricevere non solo programmi audio di qualità pari a quella dei compact disc, accompagnandoli con tutta una serie di informazioni inerenti e non al programma ascoltato (gamma di frequenza, titoli dei brani trasmessi o testi delle canzoni ecc.), ma anche testi, fotografie, dati e perfino filmati. Secondo quanto previsto dalla legge sull'emittenza, l'avvio in Italia delle trasmissioni con il sistema D., l'unico attualmente disponibile al mondo che risponde ai requisiti posti dalla International Telecommunication Union (ITU), è fissato per il 2008 Data base loc. inglese usata in italiano come sm. o f. (propr. base di dati, da data, pl. di datum, dato, elemento primario). Termine entrato nell'uso comune in informatica intorno al 1964 per denotare una raccolta di grandi quantità di dati e di informazioni archiviati su supporto magnetico secondo regole precise e generali. Esso rappresenta l'evoluzione degli archivi “cartacei” permettendo all'utente di accedere velocemente, attraverso l'utilizzo dei calcolatori, ai dati di interesse. Il data base ha la caratteristica di poter essere utilizzato da utenti diversi; inoltre i dati sono raccolti tutti in un unico archivio (il data base viene perciò detto “integrato”) evitando così le duplicazioni di informazioni e ottimizzando lo spazio di memoria a disposizione. Le informazioni vengono memorizzate nel data base in “registrazioni” logiche, ognuna delle quali è suddivisa in un certo numero di campi; essi rappresentano una serie di qualità della registrazione. Una o alcune di queste qualità vengono utilizzate per la ricerca di archivio. Ciascuna registrazione viene in generale collegata, tramite uno o più campi, ad altre, viene cioè posta in “relazione” ad altre registrazioni in modo da formare dei gruppi di informazioni omogenei; i data base corrispondenti vengono chiamati “relazionali”. Le operazioni tipiche che si compiono su un data base sono: ricerca, inserimento e cancellazione di una registrazione, modifica e aggiunta di campi. Un'evoluzione del modello relazionale oggetto di indagine è il data base deduttivo. Quest'ultimo non è solo un contenitore di fatti noti ma, in base a regole generali, ha la capacità di ricavare fatti nuovi da quelli memorizzati. Inoltre, dato che le regole sono immagazzinate a loro volta come dati anziché essere procedure prefissate, esse sono modificabili, a differenza di quanto avviene nei sistemi tradizionali Data entry loc. ingl. [propr. entrata di dati] usata in it. come sm. inv. Inserimento di dati, generalmente tramite tastiera, in un sistema di elaborazione Data minino loc. ingl. (letter. escavazione di dati) usata in it. come sm. In informatica, il problema, e le tecniche per la sua soluzione, dell'identificazione di modelli (che possono essere regolarità, tendenze o strutture) in un insieme di dati, generalmente contenuti in un data base. Questa identificazione può essere basata su tecniche statistiche, logiche, o di intelligenza artificiale, ed è solitamente un passo in un processo di “scoperta di conoscenza” (Knowledge discovery), in cui i modelli individuati vengono utilizzati per interpretare i dati a un più alto livello di astrazione. Questa tecnica, spesso usata per interpretare grandi quantità di dati a partire dall'analisi di un campione ristretto, diventa indispensabile quando si ha a che fare con basi di dati, p. es. scientifiche o economiche, contenenti miliardi di dati. Tecniche di d. sono inoltre utilizzate per costruire indici di rilevanza dei siti presenti sul Web relativi a un certo argomento Dato Informatica Elemento costitutivo dell'informazione, rappresentazione in forma convenzionale di un fatto, di un concetto, di un oggetto o di una situazione, suscettibile di trattamento per mezzo di macchine. Si trova in molte espressioni di uso comune quali: elaborazione dei dati, banca dei dati, trasmissione dei dati, rete di dati, ecc. Più precisamente nel contesto digitale è una sequenza di bit la cui natura è definita dal formato, dalla collocazione, dall'operazione svolta. Viene impiegato in tre accezioni principali: A) in un programma, i dati sono le costanti e le variabili e sono collocati nel proprio spazio di memoria (archivi di dati: data file) distinto da quello delle istruzioni. Peraltro la distinzione dipende dal tipo di elaborazione che si vuole effettuare: per esempio, le istruzioni di un programma sorgente (in linguaggio evoluto) sono i dati per il programma compilatore, che lo trasforma in linguaggio macchina. B) In un sistema di calcolo i dati possono essere, con un significato più ristretto, i valori di ingresso del problema e si distinguono pertanto da costanti e altri parametri e dai risultati intermedi e finali. C) In un senso più generale i dati sono una delle categorie dell'informazione che comprende anche testi, voce e immagini; in questo senso si parla di elaborazione di dati, elaborazione dei testi, elaborazione della voce ed elaborazione delle immagini DBMS sigla dall'inglese Data Base Management System (sistema di gestione dei data base). Insieme di programmi che effettua la memorizzazione e il reperimento di grandi quantità di dati residenti su memoria ausiliaria Debugging s. inglese usato in italiano come sm. In ambito informatico, processo di identificazione e rimozione di errori in un programma. Utilizza strumenti particolari di programmazione che identificano e segnalano gli errori e li correggono automaticamente. In alcuni casi con il debugging è possibile seguire un programma durante le esecuzioni di prova, istruzione per istruzione, sospendere l'esecuzione in punti specificati, per l'esame di risultati parziali, ecc Decoder s. ingl. usato in it. come sm. (prop. decodificatore). Dispositivo in grado di interpretare e tradurre un messaggio in codice; rif. in partic. al meccanismo che permette di fruire della programmazione di un'emittente televisiva accessibile solo a pagamento (pay-TV): per sintonizzarsi su questo canale è necessario applicare il decoder. § La televisione digitale prevede una codifica a due livelli, relativi uno alle trasmissioni, in chiaro o meno, offerte da un medesimo operatore, l'altro alle trasmissioni a pagamento. Per captare e rendere intelligibili i segnali video in arrivo via etere sono perciò necessari appositi d., noti anche come set top box, in genere predisposti, grazie al modem incorporato, anche alle applicazioni di televisione interattiva, video on demand, ecc.; per le trasmissioni a pagamento occorre inoltre una smart card rilasciata dal gestore a chi sottoscrive l'abbonamento. La smart card, inserita in un apposito alloggiamento segnala al d. quali sono le trasmissioni per le quali è stato effettuato l'abbonamento e che perciò vanno messe in chiaro Default s. ingl. usato in it. come sm. In informatica, opzione assunta automaticamente da un elaboratore in mancanza di indicazioni specifiche da parte dell'utente. Così, p. es., con “stampante di d.” si indicano la periferica e il relativo driver di stampa normalmente utilizzati dall'elaboratore Deframmentazione sf. [sec. XX; de-+frammentazióne]. In informatica, operazione che riassegna aree contigue di memoria di massa (disco) ai documenti memorizzati nel calcolatore. In situazioni di elevata frammentazione, infatti, uno stesso documento si trova diviso in numerose parti memorizzate fisicamente in locazioni separate del disco. In tale situazione, l'accesso ai dati contenuti nel documento può risultare rallentato, in quanto il calcolatore è in grado di caricare nella memoria ad accesso diretto solo il contenuto di aree contigue della memoria di massa. Dati logicamente contigui possono quindi trovarsi in locazioni lontane e il loro caricamento completo può richiedere più accessi al disco Demo [abbr. inglese di demo(nstration), dimostrazione] sm. o f. inv. In informatica, versione ridotta di un programma, solitamente comprendente le funzionalità principali dell'applicazione e un'interfaccia con l'indicazione di tutte le funzionalità del programma completo. In genere viene utilizzata durante la fase di sviluppo di un programma per mostrare ai committenti le fasi di avanzamento o, a sviluppo ultimato, come presentazione del prodotto ai potenziali clienti Desktop s. ingl. usato in it. come sm. In informatica, in ambito hardware, designazione dei personal computer da tavolo, ossia non portatili; in ambito software definisce lo sfondo di Windows '95™ e indica la scrivania sulla quale posare gli oggetti mentre si lavora DHTML acronimo di Dynamic Hyper Text Markup Language, versione innovativa dell'HTML in grado di supportare le nuove funzionalità dinamiche di creazione, gestione e impaginazione dei documenti Web Dial Up s. ingl. usato in it. come sm. Canale di comunicazione temporaneo tra due elaboratori realizzato tramite una normale linea telefonica. Si ricorre al d. in mancanza di linea telefonica dedicata; si tratta di un accesso di tipo indiretto, che utilizza la rete telefonica solo quando si rende necessario effettuare una connessione DOS acronimo dell'inglese Disk Operating System (sistema operativo su disco). Il sistema operativo più diffuso per personal computer. Il termine DOS è spesso utilizzato per indicare l'MS-DOS acronimo dell'inglese Microsoft Disk Operating System. Sistema operativo sviluppato dalla Microsoft Corporation dal 1981 per i personal computer della IBM e compatibili. È estremamente diffuso sui personal computer; per facilitarne l'uso, la Microsoft ha sviluppato su di esso l'ambiente operativo Windows, sistema operativo sviluppato negli anni Ottanta dalla Microsoft, basato su caratteri dell'MS-DOS. Introdotto nel 1985, è diventato uno standard per personal computer. Nel 1995 la Microsoft ha lanciato una versione più evoluta, Windows 95. Questa versione, ha permesso un collegamento diretto a Internet tramite il browser Explorer. Ulteriori versioni di Windows sono state lanciate nel 1998, nel 2000 e nel 2001 (Windows XP). Download s. ingl. usato in it. come sm. (propr. scaricare). In informatica, operazione on line consistente nel prelevamento di file da un BBS o da un sito Web per scaricarli in un computer privato. Per ridurre i tempi di trasferimento, in caso di file di rilevante dimensione, è necessario disporre di modem capaci di elevate velocità di trasferimento dei dati. La risorsa che consente di effettuare i d. sono i siti anonymous FTP. Drag and drop loc. ingl. (lett. “trascina e lascia cadere”) usata in it. come sf. o come agg. In informatica, tecnica di manipolazione con cui l'utente, dopo avere selezionato un oggetto, p. es. attraverso l'uso del mouse, lo sposta sullo schermo, mantenendolo selezionato fino alla posizione desiderata dove viene rilasciato. Il rilascio dell'oggetto provoca in genere l'assegnamento di qualche variabile o l'attivazione di un programma Drive Sistema elettromeccanico presente nei computer atto a registrare e a leggere dati su floppy disk o hard disk in un computer Driver in informatica, programma che gestisce una periferica del calcolatore. DVD acronimo di Digital Versatile Disc, Disco digitale versatile). Supporto multimediale che utilizza la stessa tecnologia di registrazione ottica dei compact disc, ma con una capacità nettamente superiore in grado di integrare audio, video e informatica, concentrando per esempio interi film con immagini e suono di altissima qualità nelle dimensioni di un CD. I dischi DVD hanno una capacità da 4,7 a 17 Gbyte mentre la capacità di un CD-ROM attuale va da 0,64 a 0,7 Mbyte. I dischi DVD sono disponibili nelle versioni DVD-R, scrivibili una sola volta, e DVD-E, cancellabili e perciò riscrivibili più volte. E E-commerce (abbreviazione di electronic commerce, propr. commercio elettronico). Sistema di compravendita di beni e servizi attraverso Internet. Elaboratore o calcolatore elettronico, macchina elettronica (in inglese computer) capace d'immagazzinare informazioni, di eseguire calcoli numerici e operazioni logiche secondo programmi prestabiliti su una gran massa di dati ad altissima velocità e di fornire i risultati su supporti di varia natura. Costituisce lo strumento di base per l'elaborazione dei dati. I primi tentativi per realizzare un elaboratore risalgono a C. Babbage (1840), che descrisse una macchina il cui schema, anche se mai realizzato, conteneva tutti gli elementi base di un elaboratore odierno. Il primo elaboratore, chiamato Z3, fu realizzato in Germania nel 1941: era interamente elettromeccanico (impiegava ca. 2600 relè) e l'elaborazione avveniva senza l'intervento dell'uomo. L'impiego dei dispositivi elettronici al posto dei relè e delle parti meccaniche determinò la nascita dell'elaboratore elettronico, la cui evoluzione, che prosegue ancor oggi, è convenzionalmente suddivisa in generazioni. Il primo elaboratore elettronico è l'ENIAC, costruito a fini militari negli USA nel 1946; come tutti gli elaboratori detti della prima generazione faceva uso di tubi termoelettronici ed era già possibile distinguere tra struttura fisica (hardware) e struttura dei programmi elaborati per il suo funzionamento (software). Nella seconda generazione di elaboratori (1958-1964) lo sviluppo hardware è caratterizzato essenzialmente dall'impiego di componenti elettronici allo stato solido (transistori ecc.), di memorie a nuclei magnetici, di particolari dispositivi di input/output (I/O) ovvero di introduzione ed estrazione dei dati. Con la terza generazione (1965) l'elaboratore da macchina da calcolo si trasforma in sistema di elaborazione. In funzione del tipo di impianto, gli elaboratori della terza generazione si definiscono per applicazioni gestionali, tecnico-scientifiche o di processo; a seconda del modo di operare si distinguono elaboratori in tempo reale (real-time) e in partizione di tempo (time-sharing); a seconda delle dimensioni e delle modalità operative si distinguono in mainframe (elaboratore di grandi dimensioni, gestito da personale specializzato, in grado di servire contemporaneamente un numero altissimo di utenti) e personal computer (elaboratore piccolo ed economico utilizzabile anche da operatori non specializzati). Gli elaboratori sono di tre tipi: analogici, digitali e ibridi. Gli elaboratori analogici rappresentano le grandezze fisiche mediante segnali elettrici continui e, per quanto molto rapidi, sono poco precisi. Gli elaboratori digitali, o numerici, in pratica la quasi totalità degli elaboratori attuali, operano con variabili numeriche binarie servendosi di dispositivi a due stati, come circuiti bistabili. Gli elaboratori ibridi sono costituiti da elementi dei primi e dei secondi unendone quindi le caratteristiche di velocità e di precisione. Le diverse parti dell'elaboratore operano in modo coordinato. Il programma, composto da un elenco di istruzioni, viene immagazzinato nella memoria interna dell'elaboratore; da lì l'unità di controllo acquisisce le istruzioni una dietro l'altra e attiva le parti dell'elaboratore che devono attuarle. I dati vengono introdotti nell'elaboratore da memorie esterne, dette di massa, tramite organi d'ingresso e inviati alla memoria interna. Per comunicare all'esterno i risultati contenuti in memoria, l'organo di controllo attiva le unità di uscita, quali stampanti su carta, display a tubi catodici, incisori di dischi magnetici E-mail abbreviazione di electronic mail, ovvero posta elettronica (vedi lemma posta). Emoticon sequenze di caratteri ASCII, anche dette smiley o faccina, utilizzati nei messaggi di posta elettronica (e-mail) per esprimere lo stato d'animo di chi scrive. Ruotate infatti di 90° in senso orario, queste sequenze assomigliano a faccine con diverse espressioni; così, per esempio :-) indica che il mittente è allegro, ;-) una strizzatina d'occhio, :-( tristezza, :-((( profonda tristezza, :-* un bacio, ecc Emulatore sm. (f. -trice) [sec. XIV; dal latino aemulātor-ōris]. Chi emula. In particolare, in informatica, nome del dispositivo logico applicabile a un elaboratore elettronico per assicurarne la compatibilità nel caso sia necessario eseguire programmi approntati per un altro elaboratore. Il dispositivo emula le istruzioni dell'elaboratore per il quale è stato approntato il programma, determinando una temporanea ristrutturazione circuitale di quello in cui si applica per renderlo idoneo a eseguire il programma. Più in generale l'emulatore è l'imitazione di tutto o di parte del sistema di un elaboratore da parte di un altro. Una situazione frequente è l'imitazione di un terminale di un elaboratore di grande potenza mediante personal computer ENIAC sigla dell'inglese Electronic Numerical Integrator and Computer, nome del primo elaboratore elettronico, progettato tra il 1943 ed il 1946 in Pennsylvania (USA). Realizzato nel 1946 a scopi bellici, fu impiegato fino al 1955. Utilizzava 17.468 tubi termoionici (valvole), 4100 relè e occupava un intero piano del palazzo che lo ospitava. Consumava 170 kWh e le valvole dovevano essere sostituite ogni tre, cinque giorni. Raggiungeva una precisione di 2 decimillesimi nei calcoli interi e di 2 millesimi in quelli in virgola mobile. EPROM (sigla dall'ingl. Erasable Programmable Read-Only Memory). Chip di memoria utilizzata all'interno di modem e telefoni cellulari per conservare i programmi che gestiscono gli apparecchi o nella realizzazione di cartucce per videogiochi. L'EPROM, a differenza della tradizionale memoria ROM, che è di sola lettura, può essere programmata in sede di fabbricazione e riscritta rimuovendo la copertura protettiva, esponendola a luce ultravioletta Escape s. inglese usato in italiano come sm. (propr. fuga, scampo). In informatica, è il tasto Esc posto nell'angolo superiore sinistro della tastiera; serve in genere per annullare un comando appena immesso o per tornare al livello precedente di un menu. Explorer programma creato nel 1995 dalla Microsoft per la navigazione in rete Internet. Vera e propria componente di Windows, destinata ad allargare in direzione della rete le funzionalità del sistema operativo, oltre alla sua funzione fondamentale di browser, ovvero di strumento per sfogliare le pagine informative del World Wide Web, il programma consente di ricevere e spedire posta, trasferire files, dialogare in diretta con altri utenti, preparare semplici pagine da inserire in rete, ecc. Le sue prime versioni non sono state alquanto competitive con il primo browser di Internet, Netscape, e solo nel 1996, con Internet Explorer 3, il programma è riuscito a imporsi sul mercato, diventando il principale cardine delle politiche di sviluppo della Microsoft. Con le versioni 4 e 5 il browser ha progressivamente allargato il supporto a una tecnologia denominata ActiveX, che permette di distribuire in rete, accanto alle pagine informative, piccoli programmi destinati a migliorare l'interazione fra i vari tipi di risorse di rete e le funzionalità interne di Windows. Attraverso il cosiddetto Active Desktop, la tecnologia ActiveX è stata integrata nello stesso sistema operativo, permettendo p. es. di appoggiare sullo sfondo di Windows finestre aperte su diverse risorse di rete. Inoltre, la versione 5 ha incorporato in maniera particolarmente completa la capacità di visualizzare pagine in HTML dinamico e XML. F FAQ acronimo di Frequently Asked Questions, domande poste frequentemente. In Internet, files presenti in pratica in ogni sito che riportano le domande rivolte più di frequente con le relative risposte. File in informatica, indica un insieme di documenti (records) o di dati omogenei memorizzati sotto uno stesso nome o etichetta. Finger s.ingl. usato in it.come sm. (propr. dito). In informatica, programma che, in Internet, permette di accertare se un utente è in linea e, se non ci sono motivi di privacy o di segretezza, il suo vero nome e la data e l'ora cui risale l'ultimo collegamento. Firma (digitale) (o digitale) procedura informatica che sostituisce la classica firma autografa con nome e cognome (così come timbri, sigilli, punzoni o contrassegni) per rendere validi documenti, contratti o pagamenti inviati per via telematica a un altro soggetto che sia attrezzato per riconoscerla. In Italia è stata introdotta dalla legge n. 127 del 15 maggio 1997, sulla semplificazione degli atti amministrativi. Punto fondamentale della procedura è un sistema di doppie "chiavi" che consente al sottoscrittore (attraverso una "chiave privata") e al destinatario (tramite una "chiave pubblica"), rispettivamente di rendere manifesta e di verificare la provenienza e l'integrità del documento. Le "chiavi" sono rilasciate da apposite società di certificazione (previste in un albo tenuto dall'AIPA, l'Autorità Informatica per la Pubblica Amministrazione). Le "chiavi" saranno sotto forma di file o scheda con microchip. Ogni coppia di chiavi identificherà una persona o un ufficio Flat screen Letteralmente schermo piatto, definisce tutti i tipi di display piatti, come gli schermi LCD o TFT (Thin Film Transistor, si veda anche matrice attiva) , comunemente installati sui computer portatili. Questo termine è utilizzato negli ultimi tempi anche per definire i monitor a tubo catodico che, grazie alla nuova tecnologia, presentano uno schermo privo della classica bombatura. Flag s. ingl. (propr. bandiera) usato in it. come sm. In informatica, i f. sono un insieme di bit, riuniti in un registro, che contengono informazioni sullo stato corrente dell'elaboratore e, in particolare, sul risultato di un'operazione aritmetica o logica che è appena avvenuta. I f. comunemente presenti sono quelli di riporto di segno, di zero, di parità e di controllo. Floppy disk dischetto flessibile rivestito di materiale magnetico usato come memoria di massa negli elaboratori elettronici, principalmente nei personal computer. Floppy disk drive loc. ingl. (propr. unità a dischi flessibili). Dispositivo che effettua la lettura e la scrittura sui floppy disks ed è costituito da meccanismi per la rotazione dei dischi, per il movimento delle testine di lettura e scrittura, per l'automazione delle relative operazioni, nonché per la comunicazione con l'elaboratore. Può essere parte integrante dell'elaboratore oppure esterno e a esso collegato. Flow chart loc. ingl. per diagramma di flusso; è la rappresentazione dettagliata di tutte le fasi operative che costituiscono l'elaborazione. Font s. ingl. usato in it. come sm. In informatica, termine che identifica un certo tipo di carattere (p. es. Arial, Courier, Helvetica, Times, ecc.); viene definito “scalabile” un f. capace di essere ingrandito o ridotto a piacere in video e in stampa. I f. di questo tipo più diffusi sono quelli True Type e Adobe Type 1. Foreground s. ingl. usato in it. come sm. (propr. primo piano).In ambienti informatici caratterizzati dalla possibilità della multiprogrammazione, è il processo che dispone della priorità più alta di tutti; in genere appare visivamente in primo piano e interagisce con l'utente. I processi secondari, cioè con priorità minore, operano allora in background. Formattazione sf. [dall'ingl. to format]. Neol. del linguaggio dei computer: ripartizione in varie sezioni di un disco di memoria magnetica nelle quali registrare diversi files. Con lo stesso vocabolo sono anche indicate le direttive impartite al computer per definire l'aspetto di un insieme organico di informazioni. P. es., per la stampa di una pagina di testo: tipo del carattere, stile (grassetto, corsivo, sottolineato), margini del foglio, allineamento del testo (a sinistra, a destra, centrato, giustificato), eventuale rientro dei paragrafi. FORTRAN inglese: FORmula TRANslator), in informatica, linguaggio di programmazione internazionale orientato ai problemi che possono essere espressi mediante notazioni algebriche. Freeware s. ingl. usato in it. come sm. Software messo a disposizione gratuitamente, senza problemi di copyright e usato a piacere. FTP acronimo di File Transfer Protocol, protocollo per il trasferimento di files. Risorsa applicativa del protocollo TCP/IP che consente il trasferimento di files da un sistema a un altro. In Internet questo protocollo consente il collegamento con elaboratori remoti per prelevare o inviare files di ogni genere. Gli anonymous FTP (FTP anonimi) sono siti che consentono a chiunque il download di files: è sufficiente che l'utente usi come identificativo (username o user id) “anonymous” e come password il proprio indirizzo e-mail. G Game port s. ingl (game, gioco + port, porta) usato in it. come sm. Presa, posta in genere nella parte posteriore del personal computer, destinata all'inserimento, se previsto, di un joystick, che consente di sfruttare in modo ottimale i giochi elettronici Gates, Bill imprenditore e progettista di software statunitense (1955). Da giovanissimo ideò una versione semplificata del linguaggio BASIC per personal computer. Nel 1975 fondò, con Paul Allen, la Microsoft, divenuta ben presto una delle aziende leader nel mercato del software. Il suo nome è legato, in particolare, alla creazione dei sistemi operativi MS-DOS (Microsoft-disk Operating System) e Windows (con le successive versioni Windows 95, Windows 98 -integrato con il browser Internet Explorer-, Windows 2000, Windows ME). Nel 1997 Gates era accusato di concorrenza sleale e pratiche monopolistiche su richiesta della Netscape. Condannato (2000) allo smembramento coatto dell'azienda, nel 2001 otteneva la cancellazione della sentenza. GIF [Graphics Interchange Format] Formato d'interscambio per la grafica. Con questo acronimo si indica un formato per comprimere e registrare su disco immagini di tipo bitmap anche ad alta risoluzione, con un massimo di 256 colori. Il formato GIF è stato introdotto da CompuServe nel 1987 con l'obiettivo di memorizzare immagini ad alta definizione ed elevata qualità, che potessero poi essere visualizzate su computer di diversi tipi. La compressione viene eseguita per mezzo dello speciale algoritmo LZW (brevettato da Unisys) che riunisce diverse formule matematiche; il fattore di compressione (per quanto riguarda la riduzione di spazio occupato dai file. GIF) varia da 1,5:1 a 2:1. Grazie alla sua versatilità, questo formato è ampiamente impiegato per gli elementi grafici delle pagine Web. Groupware s. ingl. usato in it. come sm. (propr. lavoro di gruppo). Il termine indica l'utilizzo di uno stesso complesso di risorse e di informazioni da parte di un gruppo di persone per lo sviluppo di progetti complessi, per la cooperazione a livello aziendale o interaziendale, ecc. I vari componenti del gruppo di lavoro, grazie alle possibilità offerte da informatica e telematica, possono interagire anche trovandosi a migliaia di km di distanza, come se si trovassero a stretto contatto all'interno di uno stesso edificio o di uno stesso ufficio. GUI acronimo di Graphical User Interface (Sistema di interazione tra elaboratore e utente di tipo intuitivo). Il G. è stato sviluppato per facilitare l'uso del computer e l'accesso alle risorse mediante l'utilizzo di icone e di elementi grafici autoesplicativi. L'introduzione di questa interfaccia grafica ha notevolmente semplificato l'approccio all'utilizzo del computer perché non è più richiesta la conoscenza preventiva di specifici comandi per eseguire determinate operazioni. H Hacker pirata informatico che si introduce abusivamente, mediante il proprio computer, nella memoria o nel programma di un altro calcolatore modificandone e alterandone le funzioni o raccogliendo notizie riservate. Handle s. ingl. (anche soprannome) usato in it. come sm. In informatica pseudonimo, chiamato anche alias, utilizzato per comodità o desiderio di nascondere la propria identità da un utente che si iscrive in un sistema informatico, dopo essersi registrato con il suo vero nome Handshake s. ingl. usato in it. come sm. (propr. stretta di mano). In informatica indica lo scambio di segnali relativi a velocità di trasmissione dati e particolarità tecniche tra i modem di due elaboratori ogni volta che viene effettuato un collegamento, per potersi connettere senza problemi Hard copy s. ingl. (propr. copia dura) usato in it. come sf. In informatica, copia stampata di un flusso di dati in uscita da un elaboratore. Generalmente si riferisce alla riproduzione stampata della configurazione di dati che appaiono sullo schermo di un videoterminale; i dati stampati mantengono lo stesso formato di apparizione sullo schermo. Hard disk disco magnetico rigido usato come memoria di massa nei computer per immagazzinare dati. Al contrario del floppy disk, esso non è estraibile dal computer: ciò permette di costruire con strettissime tolleranze il sistema disco-testina di lettura, cosicché la registrazione dei dati può essere effettuata ad altissima densità Hardware insieme delle strutture materiali di un elaboratore elettronico; il termine è usato in contrapposizione a software, insieme dei programmi che ne consentono il funzionamento HD acronimo di High Density, alta densità. In informatica, la sigla stampigliata sull'involucro dei dischetti per segnalare la capacità di memorizzare dati fino a 1,44 Mb. Housekeeping s. ingl. usato in it. come sm. In informatica, l'insieme delle funzioni del sistema operativo che hanno come scopo quello di mantenere l'efficienza nell'uso delle risorse del calcolatore. Un'operazione tipica, per esempio, è quella della garbage collection (“raccolta della spazzatura”) che tende a ridurre gli sprechi di memoria, eliminando l'informazione che non è più valida o richiesta e recuperando le celle non più impiegate o contenenti informazioni superflue. Hub Detto anche concentratore, è un apparato che serve per collegare in una topologia a stella tutti i computer di una rete. Una sua evoluzione sono gli switching hub, che consentono anche l'indirizzamento mirato dei dati secondo la destinazione, consentendo maggiori prestazioni. Host Qualsiasi computer collegato a una rete, che sia fonte di informazioni e/o servizi interattivi. Ogni host ha uno specifico identificativo locale (local host number) che, insieme all'indirizzo di rete (network number), costituisce l' IP address univoco. Un host è ad esempio il provider utilizzato per collegarsi a Internet; la connessione con l'host avviene tramite modem (protocollo PPP). Viene attribuito alla macchina dell'utente un indirizzo IP che non varia per tutta la durata della connessione; durante questo periodo di tempo, lo stesso PC dell'utente risulta un host. Un host in Internet viene indicato anche come "nodo". HTML acronimo di Hyper Text Markup Language (linguaggio per la marcatura di ipertesti). In informatica, linguaggio di programmazione con il quale sono scritti tutti i documenti ipertestuali destinati al World Wide Web. I Icona Piccola immagine visualizzata sullo schermo che rappresenta un collegamento ad un programma o una funzione del calcolatore. Attraverso le icone, il cui aspetto solitamente richiama la funzione svolta, si possono controllare diverse azioni senza bisogno di conoscere né di digitare comandi da tastiera. Implementazione sf. [sec. XX; da implementare]. Le operazioni necessarie per la realizzazione pratica di un sistema di elaborazione automatica dei dati partendo da funzioni completamente specificate. P. es. una “unità di controllo”, concettualmente definita nei suoi dettagli, può essere implementata mediante microprogrammazione (in alternativa alla soluzione mediante circuito). Nella terminologia software (programmazione ) l'uso del termine indica le attività, a valle di tutte le principali scelte di progetto, che possono venire svolte autonomamente fino alla messa in opera del programma funzionante. In particolare un algoritmo viene implementato dal relativo programma. Vi possono essere i. differenti per ottenere versioni del programma in diversi linguaggi od operanti su sistemi hardware diversi, e così via Indirizzo in informatica, posizione di una cella di memoria in un elaboratore in cui si trova un'informazione o in cui un'informazione può venire scritta. Nei linguaggi di alto livello, il programmatore non deve normalmente preoccuparsi degli indirizzi effettivi delle informazioni che vuole manipolare, mentre è indispensabile specificare gli indirizzi nella programmazione in linguaggi di basso livello. Si hanno a disposizione diversi tipi di indirizzo: l'indirizzo assoluto è un'informazione, generalmente numerica, che identifica una particolare posizione di memoria. Per identificare una parola in un programma, con rif. alla posizione in esso occupata, si usa invece un'informazione detta indirizzo relativo. Sulla rete Internet, inoltre, si definisce indirizzo numerico (IP) quello che, composto di quattro cifre decimali intervallate da punti, individua un host e identifica come indirizzo la URL di un documento. Informatica scienza a carattere interdisciplinare che riguarda tutti gli aspetti del trattamento dell'informazione mediante elaboratori elettronici. La diffusione delle nuove tecnologie ha prodotto un'importante trasformazione nel concetto stesso d'informatica: la trasmissione e il trasferimento delle informazioni vanno assumendo sempre più un ruolo centrale nel sistema informatico, con pari importanza rispetto all'elaborazione dell'informazione, al calcolo e al controllo dei processi. Per questa compenetrazione di informatica in senso stretto e comunicazioni è stato coniato il nuovo termine telematica. Input in informatica è l'equivalente di ingresso dati, in contrapposizione a output (uscita). INTEL società leader nella progettazione e realizzazione di microprocessori su chip, fondata nel 1968 da R. Noyce, creatore del circuito integrato. Diversi gli accordi stipulati: nel 1998 con la Kodak nell'intento di rimuovere le barriere tra immagini digitali e foto tradizionali; nel 1999 con il governo cinese per promuovere lo sviluppo dell'istruzione on-line e dello scambio di tecnologie. Nello stesso anno ha siglato un'alleanza con Hewlett Packard e Nortel Network nei servizi in rete. Interattività in informatica, possibilità di interagire in modo attivo con il programma o con l'applicativo che si sta usando. L'utente può modificare le modalità e la sequenza temporale del programma tramite apposite interfacce (tastiera, mouse, touch screen ecc.). Nei videogiochi e nella realtà virtuale vengono sperimentati anche mezzi d'avanguardia molto complessi (cabine di guida, visiere che permettono una visione tridimensionale ecc.). Interfaccia In informatica, interconnessione o accoppiamento in grado di far operare insieme due parti di un sistema aventi caratteristiche diverse. Ambiente grafico che consente all'utente di impartire comandi al computer o gestire le funzionalità di un software o un sistema di sviluppo attraverso strumenti intuitivi (finestra, puntatore comandabile con il mouse). Apparato utilizzato per mettere in comunicazione dispositivi di tipo diverso, all'interno di un sistema di calcolo. Esempi sono le porte seriale e parallela del personal computer Internet acronimo di Inter(national) + net o di Inter Net(works), sistema di reti interconnesse le cui origini risalgono ad Arpanet, sviluppata negli anni Sessanta dal Dipartimento della Difesa statunitense per consentire il proseguimento delle attività militari e di governo in caso di attacco nucleare. Sviluppatasi grazie alla cooperazione tra ditte informatiche e di telecomunicazione, banche, università ed enti di ricerca, Internet è diventata una gigantesca ragnatela (World Wide Web) che collega, tramite vari nodi, milioni di computer dislocati su tutto il pianeta. Collegandosi a Internet si hanno a disposizione, gratuitamente o a pagamento, programmi, utilità, informazioni varie e si possono scambiare messaggi di posta elettronica (E-mail) e file di ogni tipo. In genere è sempre a pagamento il collegamento tra computer dell'utente (user) e nodo facente parte della rete (provider). Assieme alla TV via satellite o via cavo e alla telefonia, Internet costituisce uno degli elementi delle cosiddette autostrade informatiche che in futuro costituiranno un sistema di comunicazione globale. INTERconnected NETworks] È chiamata "la rete delle reti", proprio perché composta da circa 100.000 reti interconnesse, in più di 100 differenti nazioni. Nata nell'ambito di un progetto militare statunitense che aveva lo scopo di creare una rete completamente distribuita (cioè senza nessun calcolatore "centrale"), in grado di preservare le informazioni e garantire la comunicazione anche in caso di conflitto nucleare, è oggi largamente impiegata soprattutto per scopi commerciali e di ricerca. L'enorme sviluppo e diffusione della rete Internet è dovuto innanzi tutto alla nascita dei Web server e dello standard HTML, grazie ai quali è possibile rendere accessibile a tutti gli utenti dotati di browser grafici, un'enorme quantità di informazioni di qualsiasi genere (programmi, documenti testuali, immagini, file audio ecc.); inoltre gli stessi browser permettono una facile e immediata consultazione dei gruppi di news (newsgroup) di USENET (User Network), la grande rete che per anni, prima dell'avvento di Internet, ha messo a disposizione degli utenti un'enorme quantità di informazioni. Ultimo, ma non per questo di minore importanza, motivo del successo di Internet è il fatto che la rete consente la comunicazione in tutto il mondo tramite posta elettronica, messaggi in tempo reale e addirittura in videoconferenza, al costo di una telefonata urbana.§§I calcolatori collegati a Internet utilizzano il protocollo di comunicazione denominato TCP/IP. Attualmente fanno parte di Internet più di 20 milioni di host, oltre a un numero molto elevato di sottoreti di diverso genere, connesse tramite gateway che convertono TCP/IP nei protocolli da loro utilizzati. L'enorme diffusione di Internet e l'abitudine a collegarsi, che è diventata quasi una moda anche tra gli utenti comuni, ha fatto nascere varie forme di attività commerciali intorno a quello che si può considerare l'evento socio-tecnologico del nuovo millennio. In un futuro ormai alle porte è previsto uno sviluppo esponenziale delle applicazioni interattive, dei servizi di informazione gratuiti e a pagamento (con conseguente evoluzione del concetto di pubblicità e sponsorizzazione) e dei negozi virtuali (e-commerce) , considerato anche il crescente miglioramento della tecnologia dell'infrastruttura, conseguente agli investimenti che vengono e verranno operati in questo settore. Intranet s. ingl. [da intra+net, rete interna], usato in it. come sf. Sistema di rete privata, interna a una azienda, che utilizza i servizi della struttura di comunicazione locale LAN esistente e gli standard e i protocolli del World Wide Web (WWW). Creata e gestita direttamente dagli utenti in base alle loro esigenze, è utilizzata per facilitare la pubblicazione di documenti e per la comunicazione e la condivisione di informazioni all'interno di un'azienda, in collegamento anche con le sedi distaccate. IP acronimo dell'ingl. Internet Protocol (Protocollo per l'interconnessione). Protocollo di comunicazione senza connessione grazie al quale i pacchetti in cui il messaggio è suddiviso vengono trasferiti dalla sorgente alla destinazione in modo trasparente attraverso la rete. Ipertesto sm. [sec. XX; iper- + testo, sul modello dell'ingl. hypertext]. Nel linguaggio informatico, insieme organico che comprende testi, immagini, tabelle e altri eventuali documenti, tra i quali è possibile istituire collegamenti logici e richiami partendo da un messaggio espositivo di base: un'enciclopedia multimediale con un ricco apparato di i. integrativo. L'i. costituisce uno strumento informatico capace di organizzare le informazioni in modo da consentire una loro lettura non sequenziale grazie a una struttura a reticolo che permette di passare a documenti contenenti informazioni diverse mediante uno specifico collegamento (link). I documenti raggiunti mediante link possono contenere oltre ai testi scritti anche immagini, video, suoni; in tal caso si parla di i. multimediali J Java in informatica, linguaggio di programmazione sviluppato da Sun Microsystems per applicazioni interattive. Attualmente costituisce il linguaggio di programmazione usato per scrivere le applicazioni interattive note come applet, che sono in grado anche di creare suoni, animazioni grafiche e giochi interattivi. Dato che può essere eseguito su qualsiasi hardware, purché munito di interprete J., è potenzialmente utilizzabile da un qualsiasi dispositivo intelligente di elettronica di consumo, dal network computer ai set top box collegati ai televisori, nelle auto e nelle fabbriche. J. è anche un sistema di sicurezza, in quanto previene possibili danni derivati al computer da applet create da eventuali hackers. Infatti, se si scarica dalla rete un'applet, il sistema di sicurezza di J., il Java Virtual Machine, interviene permettendo all'applicazione di funzionare solo nella memoria transitoria del computer, negandole l'accesso al disco rigido, alle connessioni in rete e ad altre risorse del sistema. L'applet, quindi, viene trattenuta in una specie di “recinto” di sicurezza fino a quando J. non ha verificato se sia stata scritta correttamente nel suo linguaggio o se sia una di quelle certificate, cioè affidabili. Joystick dispositivo di ingresso a un elaboratore il cui movimento, guidato dalla mano, provoca lo spostamento del cursore (o di altro simbolo) sullo schermo di un monitor. È una manopola, alta all'incirca 20 cm, montata verticalmente su una base, che viene spostata dalla posizione verticale nella direzione in cui si vuole muovere il cursore sullo schermo. È largamente usato nei videogiochi e per alcune applicazioni professionali, come la progettazione assistita da calcolatore (Computer-Aided Design). JPG o JPEG sigla dell'ingl. Joint Photographic Experts Group (Gruppo congiunto di esperti per la fotografia). In informatica, formato grafico, di dimensioni più ridotte del GIF, molto usato su Internet. Riducendo lo spazio occupato delle immagini, può visualizzare un elevato numero di colori. L LAN sigla di Local Area Network (rete di comunicazione locale). Rete di comunicazione che collega una serie di elaboratori (nodi) situati in una zona circoscritta (entro il raggio di 10 km). Con la rete LAN è possibile disporre, con velocità di trasmissione che vanno dai centomila ai cento milioni di bit al secondo, di programmi di utilità centralizzati; basi di dati, periferiche comuni, ecc. Un insieme di protocolli (regole per lo scambio di messaggi) governa il flusso delle informazioni nella rete. Un'applicazione LAN all'interno di un'organizzazione si rivolge a tre livelli. Il gruppo di lavoro costituisce l'unità di base ed è costituito da un numero limitato di utenti che utilizzano personal computer intercomunicanti. L'area dipartimentale è caratterizzata dalla disponibilità di minielaboratori ed è formata da alcuni gruppi di lavoro. Infine l'organizzazione può disporre di un mainframe (o grande elaboratore) in cui sono centralizzati i dati aziendali e dove è possibile svolgere le elaborazioni più potenti. Il modello di riferimento di una rete LAN è costituito da tre ambienti: A) L'ambiente applicativo, che fa riferimento sia ai terminali, sia agli elaboratori, alle periferiche e ai programmi e comprende anche i sistemi operativi in cui questi operano. B) Il sistema di trasporto delle informazioni, comprendente sia i nodi della rete locale a cui si collegano gli utenti, sia i protocolli che permettono il trasporto delle informazioni. C) Il sistema di cablaggio e di distribuzione, che comprende l'insieme dei cavi, dei fili, delle torrette e delle canaline che permettono di realizzare la connessione fisica fra i dispositivi hardware che costituiscono il sistema informativo e su cui viaggiano i segnali elettrici (cavi coassiali o doppini telefonici) od ottici (fibre ottiche) che rappresentano i dati di utente. I due tipi di LAN più diffusi sono le reti Ethernet e Token Ring. Lap Top agg. ingl. (propr. portatile) usato in it. come sm. Indica elaboratori portatili di dimensioni minime, funzionanti anche a batteria o ad accumulatore e dotati di schermo retroilluminato a cristalli liquidi o al plasma che si ripiega sulla tastiera come un coperchio. I l., grazie anche al peso assai ridotto (ca. 2 kg), possono essere usati dovunque; i modelli più evoluti sono dotati di schermo a colori e di hard disk. Lettore in informatica, apparecchiatura elettronica per la traslazione di un tipo d'informazione da un supporto di memorizzazione a un altro: per esempio, lettore di caratteri magnetici, lettore di codici a barre, lettore ottico ecc. Linguaggio Sistema di simboli, di caratteri e di regole che permettono di formare il programma con il quale è possibile comunicare con un elaboratore e guidarne il funzionamento per fini prestabiliti. Si distinguono due grandi classi di linguaggi: i linguaggi di programmazione, o simbolici, con i quali vengono scritti i programmi di origine, e i linguaggi di macchina, o assoluti, nei quali devono essere tradotti i primi al momento della presentazione all'elaboratore. Tra i linguaggi simbolici si distinguono diversi livelli: considerando il linguaggio di macchina come linguaggio di livello zero, i linguaggi assemblatori, che provvedono alla traduzione dal linguaggio di programmazione al linguaggio di macchina, sono detti linguaggio di livello uno, i comuni linguaggi algoritmici sono detti linguaggi di livello due, i linguaggi algoritmici orientati a particolari problemi sono detti linguaggi di livello tre. Link s. ingl. (propr. anello) usato in it. come sm. 1) Unità di misura di lunghezza del sistema inglese, pari a di chain; equivale a.0,201168 m. 2) In informatica, operazione automatica di unione di due o più moduli di un programma (o moduli di libreria, di funzione, ecc.) compilati separatamente per ottenere un programma eseguibile. Inoltre si intende per l., nell'ambito del World Wide Web, collegamento di un ipertesto; si tratta di parola o immagine appositamente designata, che quando viene selezionata, consente il passaggio, mediato dal Web browser, a un documento collegato (testo, file sonoro, immagine o filmato), che a sua volta può contenere altri link. Linker s. ingl. (propr. correlatore) usato in it. come sm. In informatica, programma che unifica parecchi moduli compilati separatamente eliminando le chiamate fra di essi. Quando un programma viene compilato si ha un prodotto intermedio nel quale è necessario incorporare materiale di libreria contenente procedure e routine standard e aggiungere qualsiasi altro modulo fornito dall'utente. L'intero processo di compilazione in cui si inserisce l'azione del l. prevede la preparazione del programma sorgente tramite un editor, la traduzione di questo attraverso un compilatore, per trasformarlo in programma oggetto, il collegamento attraverso un l. del programma oggetto con le routine di libreria, e il caricamento del programma così ottenuto su memoria centrale per la sua esecuzione. Linux in informatica, sistema operativo di tipo Unix destinato ai personal computer, introdotto nel 1991 dal finlandese Linus Torvalds e sviluppato successivamente da centinaia di persone in tutto il mondo collegate tra loro in Internet. Questo sistema operativo è completamente gratuito con caratteristiche equivalenti a quelle dei sistemi operativi commerciali. La sua diffusione è stata finora limitata dalla complicata procedura di installazione che esige una certa competenza informatica. Nel 2000 Linux ha stipulato un'alleanza con IBM. LISP in informatica, acronimo di List Processor, elaboratore di liste. È uno dei linguaggi di programmazione più usati nell'ambito dell'intelligenza artificiale Loading s. ingl. (propr. caricamento) usato in it. come sm. In informatica, la operazione svolta dal loader; l. program, programma di caricamento, sin. di loader. Login s. ingl. [da log, propr. registrare + in, dentro] usato in it. come sm. Procedura che permette il collegamento con qualsiasi servizio in linea o relativa all'apertura di una sessione di lavoro in un sistema informatico. Logo in informatica, linguaggio di programmazione che costituisce il più diffuso linguaggio didattico. Loop s. ingl. (it. ciclo iterativo) usato in it. come sm. In informatica, sequenza di istruzioni o di operazioni ripetuta più volte dall'elaboratore sino a che non si verifica una condizione prefissata M Macro sf. per macroabbreviazione. In informatica, insieme di istruzioni che vengono eseguite richiamando un nome o premendo un tasto. Il ricorso alla m. risulta utile nel caso di una procedura da eseguire di frequente che richiede l'esecuzione di un certo numero di operazioni secondo una precisa sequenza, come p. es. nel caso di una procedura di login. Mainframe elaboratore di prestazioni molto elevate, che può servire contemporaneamente un grandissimo numero di utenti Masterizzatore in elettronica, apparecchio che consente di incidere o duplicare CD-ROM. Matrice attiva Detta anche TFT, è la tecnologia utilizzata nella costruzione di monitor LCD, dove ogni singolo pixel è in grado di emettere luce propria, migliorando la nitidezza e la luminosità delle immagini da qualsiasi angolo di osservazione. Memoria Organo di sistema di elaborazione in grado d'immagazzinare informazioni e di renderle a richiesta. Si hanno due classi principali di memoria: le memorie interne e le memorie periferiche o ausiliarie. Le prime, parte integrante dell'unità centrale di elaborazione, sono completamente elettroniche, mentre le seconde sono in genere memorie dinamiche. Le prime, inoltre, sono memorie ad accesso casuale, cioè memorie in cui le diverse posizioni vengono raggiunte in un tempo brevissimo indipendente dalla posizione prescelta. Le seconde, invece, sono memorie ad accesso sequenziale, in cui il tempo di accesso dipende dalla posizione Messaggio in informatica, gruppo di caratteri e/o simboli mediante i quali si trasmette un'informazione. Metamotore sm. [meta-+motore]. Tipo di motore di ricerca, presente sulla rete Internet, che non dispone di un vero e proprio database interno. Questo è capace di reperire informazioni, interrogando, contemporaneamente, un numero variabile di motori di ricerca con una sola query. Microcalcolatore sm. [micro-+calcolatore]. In informatica, detto anche con termine ingl., microcomputer, elaboratore digitale completo di piccole dimensioni costituito da un insieme di circuiti elettronici ad alto livello di integrazione e avente come elemento base un microprocessore. Microprocessore chip a semiconduttore che svolge i compiti dell'unità centrale (CPU) di un elaboratore. Un microprocessore consiste almeno di un'unità logico-aritmetica e di un'unità di controllo. Nei personal computer contiene l'ALU (unità aritmetico-logica), registri di memoria, bus di trasferimento dati. I microprocessori sono impiegati in una miriade di dispositivi presenti in ogni campo della vita quotidiana: calcolatrici tascabili, dispositivi di regolazione e di misura, carte di prelievo contante e carte di credito, funzioni di controllo di processi industriali, orologi, elettrodomestici, telefoni cellulari, televisori e auto. Caratterizzano il microprocessore la velocità, il numero di bit dei registri, l'architettura, nonché il set di istruzioni, che può essere sia cablato sia microprogrammato. È la combinazione di queste caratteristiche e non solo la velocità che determina le prestazioni di un microprocessore. L'architettura del microprocessore è diventata via via più complessa. Questa determina sia le modalità di funzionamento interno (esecuzione delle istruzioni in sequenza, con sovrapposizione, in parallelo; elaborazione su numeri interi, su numeri a virgola mobile, su vettori), sia la flessibilità di interfacciamento con l'esterno (opzioni di ingresso/uscita per trasmissioni sequenziali e parallele, per collegamenti con altri processori, per interfacce interattive, ecc.). Il set di istruzioni, rappresentato in ogni microprocessore nelle sue sottoclassi (istruzioni aritmetiche, logiche, di controllo del programma, di ingresso/uscita), si è ampliato e potenziato man mano che il progresso tecnologico lo rendeva possibile, superando il centinaio di istruzioni nei microprocessori CISC (Complex Instruction Set Computer: elaboratore con set di istruzioni complesso). In relazione all'adozione di architetture più complesse, sono stati realizzati microprocessori RISC (Reduced Instruction Set Computer: elaboratore con set di istruzioni ridotto) che, grazie all'impiego di poche istruzioni semplici a esecuzione molto veloce e a una serie di accorgimenti progettuali (in particolare l'impiego di memorie cache-nascoste), hanno superato le soluzioni CISC più avanzate. Microsoft industria statunitense di informatica, che sviluppa, produce e commercializza sistemi operativi, linguaggi e programmi applicativi per microelaboratori. Fondata nel 1975 da B. Gates e P. Allen, si affermava con la commercializzazione del sistema operativo MS-DOS. Successivamente sviluppava il sistema operativo Windows, un software che completava MS-DOS. Gli sviluppi più significativi del gruppo, negli anni Novanta, sono stati legati alla realizzazione di prodotti Internet. Nel 1995 veniva lanciato il browser Internet Explorer che, in quanto fornito gratuitamente, era oggetto di una vicenda giudiziaria che in un primo tempo (2000) condannava Gates per pratiche monopolistiche allo smembramento dell'azienda. Presente anche nelle telecomunicazioni, la Microsoft, nel 1996, ha dato vita alla MsNBC, canale di news via cavo, e l'anno dopo ha acquistato la Web Tv Networks, società che produce un sistema per l'accesso a Internet tramite schermo televisivo. Negli anni successivi ha rafforzato l'integrazione tra Internet e telecomunicazioni e, agli inizi del sec. XXI, si è lanciata nel mercato delle informazioni stream, cioè di quei prodotti (notiziari, concerti, film, eventi sportivi) diffusi su Internet in tempo reale. MIDI acronimo di Musical Instrument Digital Interface, metodo per creare e ascoltare musica digitale assistiti da un computer equipaggiato con una scheda sonora (soundblaster) o collegato a uno strumento musicale dotato di interfaccia MIDI. È appunto la scheda sonora che ha consentito di operare questo sviluppo, i cui primi passi risalgono al Moog, sintetizzatore di suoni elettronici degli anni Settanta. Mentre per registrare una canzone con un normale file in formato wav occorrevano finora una decina di Mbyte, per di più con un risultato qualitativo non paragonabile a quanto consentito da MIDI, con questo sistema è il computer stesso che decodifica le informazioni software e suona. Il protocollo MIDI registra infatti i movimenti della tastiera invece dei suoni prodotti. In questo modo è possibile, in pochissimo spazio, registrare un'esecuzione e farla poi ripetere automaticamente da qualsiasi strumento MIDI o da una scheda sintetizzatrice. Proprio il fatto di registrare le azioni del musicista invece dei suoni, impedisce ai file MIDI di contenere tracce vocali. Il mercato è in grado di offrire schede sonore di tutti i tipi e di tutti i prezzi, da semplici basi musicali ad altre che trasformano il personal computer in una piccola orchestra, ad altre ancora che consentono di realizzare composizioni e orchestrazioni estremamente complesse, con la possibilità di riprodurre centinaia di strumenti. MIME acronimo di Multipurpose Internet Mail Extension, protocollo per il trasferimento di files multimediali, ossia non A.S.C.I.I.; mediante posta elettronica. Questi files vengono codificati in A.S.C.I.I. e richiedono, per ritornare nella forma originaria, di essere decodificati una volta giunti a destinazione. Minicomputer sm. inv. [mini-+computer]. In informatica, elaboratore elettronico di piccole dimensioni: la categoria “mini” è intermedia fra quella dei personal computer e quella dei più potenti elaboratori, i mainframes, cui si avvicinano i “supermini”. Un m. può essere utilizzato da un numero di utenti compreso fra 4 e 100 ed è quindi tipico di un piccolo centro di calcolo. Minifloppy s. ingl. (propr., minidisco flessibile) usato in it. come sm. In informatica, indica i dischi flessibili della dimensione di 51/4 pollici impiegati come memorie periferiche rimovibili (capacità 0,7-1,4 Mbyte, pari a diverse centinaia di cartelle dattiloscritte). Si differenziano dai floppy disks (di dimensioni 81/2 pollici) in quanto richiedono dispositivi di lettura/scrittura di dimensioni ridotte; essi vengono utilizzati soprattutto negli elaboratori da tavolo (personal computer). Sul mercato, nell'ambito della stessa classe di elaboratori, è assai utilizzato un altro tipo di dischi flessibili delle dimensioni di 3 1/2 pollici detti microfloppy e di capacità anche superiore (fino a 2 Mbyte). MIPS sigla dall'ingl. Million Instructions Per Second (milioni di istruzioni al secondo). Unità di misura utilizzata per indicare la velocità alla quale un elaboratore esegue le istruzioni. Di solito viene associata ai mainframes e ai superelaboratori anche se ultimamente, grazie all'evoluzione rapidissima della tecnologia dei semiconduttori, si è estesa anche ai personal computer. Modem nella tecnica delle telecomunicazioni, apparecchiatura per la modulazione e la demodulazione dei segnali, che permette di trasmettere su linee telefoniche i segnali numerici con cui opera un elaboratore elettronico. Modularità In informatica, caratteristica di un sistema hardware o software che ne permette l'espansione con l'aggiunta progressiva di moduli. Monitor terminale video che permette di controllare in diretta lo svolgimento di un avvenimento o di un fenomeno. Oltre che in campo specificamente televisivo, le apparecchiature monitor hanno trovato largo impiego nel controllo (monitoraggio) di processi produttivi e, in medicina, dell'andamento di funzioni fisiologiche (battito cardiaco, respirazione, attività cerebrale ecc.) Morphing tecnica di computer grafica, usata in cinematografia, videogiochi, pubblicità e opere multimediali in genere. Consiste nel passare gradualmente da un'immagine a un'altra in modo che chi osserva il risultato finale percepisca un cambiamento il più regolare e continuo possibile. Tipici sono i morphing tra volti umani e musi di animali: data l'immagine di partenza e quella finale, i passaggi intermedi vengono elaborati da speciali programmi Motore di ricerca programma che consente di trovare uno specifico dato all'interno di un data base. È la principale risorsa per il reperimento semplice e immediato di informazioni su Internet. I motori di ricerca si basano su due differenti criteri di gestione delle informazioni: per indici e per directory. I primi sono enormi data base, che contengono dati strutturati, relativi a milioni di pagine Web o articoli di vari newsgroup. Questi motori di indicizzazione sono aggiornati dai cosiddetti spider, software che esplorano continuamente la rete, raccogliendo i fattori di riconoscimento di ciascun documento, organizzati poi dal motore in modo da consentire una ricerca per parole. Motori di indicizzazione sono Altavista e Hot Bot. I motori di ricerca per directory si avvalgono, invece, di elenchi ipertestuali di siti, organizzati gerarchicamente per categorie e sottocategorie. Pertanto classificano i singoli siti, indipendentemente dalle pagine contenute, permettendo di effettuare una ricerca per parola chiave oppure partendo da macrocategorie. A differenza degli indici, le directory sono frutto di una catalogazione umana delle risorse presenti su Internet. Capostipite di questi ultimi motori di ricerca è Yahoo! Mouse termine inglese, ormai entrato nell'uso comune, con cui si indica un dispositivo che, collegato al computer, permette di muovere rapidamente il cursore sullo schermo. È così possibile ridurre, in alcuni casi notevolmente, l'uso della tastiera MP 3 sigla dall'ingl. Motion Picture Expert Group - Audio Layer 3 dello standard per la compressione di file audio e, quindi, della memorizzazione di musica digitale. Realizzato nel 1987 da Dieter Seitzer dell'Università tedesca di Erlangen e dal Fraunhofer Institut Integrierte Schaltungen, ha avuto inizialmente una scarsa diffusione a causa delle modeste prestazioni dei microprocessori e dei modem con cui venivano trasferiti i file, ma nel 2000 ha raggiunto una diffusione tale da preoccupare fortemente le case produttrici di brani musicali in ragione della difesa dei diritti d'autore. Mp3 comprime un file musicale di 12 volte, mantenendone la qualità digitale di un compact disc. La tecnologia di compressione consiste nell'eliminare i suoni coperti contemporaneamente da altri e quelli emessi su frequenze non percepibili dall'orecchio umano. Ciò rende possibile trasferire brani musicali dalla rete Internet (gratuitamente o a pagamento) e ascoltarli con un computer o con appositi lettori portatili. Anche i programmi per la riproduzione di questi file musicali possono essere prelevati gratuitamente da Internet MPEG acronimo dall'inglese per Motion Picture Experts Group (Gruppo di esperti per immagini in movimento). Serie di norme emanate dall'ISO (International Standards Organization, Organizzazione internazionale per gli standard) per la codifica di immagini in movimento e dell'audio associato. Esistono diverse versioni dello standard M. che si differenziano per il tipo di applicazioni cui si rivolgono. MS – DOS acronimo dell'inglese Microsoft Disk Operating System. Sistema operativo sviluppato dalla Microsoft Corporation dal 1981 per i personal computer della IBM e compatibili. È estremamente diffuso sui personal computer; per facilitarne l'uso, la Microsoft ha sviluppato su di esso l'ambiente operativo Windows. Multimediale comunicazione che fa ricorso a diversi strumenti spesso integrati fra loro e complementari. In particolare, in elettronica, un sistema di elaborazione multimediale deve essere capace di impiegare contemporaneamente diversi tipi di informazione in modo interattivo. Un tale sistema presenta all'utente, tramite monitor e speakers, una grande ricchezza di informazioni con varie modalità: testi, grafica, animazione, suono, voce sintetizzata elettronicamente. Un sistema multimediale interattivo è considerato tale se è in grado di fornire contemporaneamente almeno tre di queste modalità, assicurando nello stesso tempo un grado sufficiente di interattività, ovvero la capacità di comunicare in entrambe le direzioni, da e verso l'utente. Due sistemi a grandissima diffusione sono la televisione e il personal computer, che contengono elementi parziali di un sistema multimediale interattivo: la televisione offre un'enorme quantità di informazioni e scarsa interattività; il personal computer è in grado di conversare con l'utente con modalità complesse e numerose (tastiera, mouse, ecc.). Multimedialità diffusa soprattutto negli anni Novanta, specialmente su CD-ROM la multimedialità è in fase di sviluppo esponenziale. I prodotti multimediali, fruibili interattivamente su un calcolatore personale, contengono testi, immagini fisse (fotografie, disegni), immagini in movimento (filmati e animazioni) e suoni e possono spaziare dai videogiochi alle enciclopedie, da monografie su particolari argomenti a prodotti didattici. Nelle opere multimediali vi è in genere sia una componente strettamente informatica sia editoriale; questo vale soprattutto per i CD-ROM enciclopedici e monografici (editoria su CD-ROM o multimediale). Un recente sviluppo della multimedialità è costituito dalla realtà virtuale (Virtual Reality) che permette all'utente di esplorare a suo piacimento ambienti tridimensionali. N NAND nell'algebra booleana, operatore logico costituito da un prodotto AND e una negazione NOT. In informatica, circuito o porta logica che realizza la corrispondente funzione logica. Napster società statunitense fornitrice dell'omonimo software per ascoltare, scaricare, scambiare documenti musicali in formato Mp3 su Internet. Il programma, ideato da Shawn Fanning nel 1999, permette attraverso un sistema peer-to-peer di ascoltare file audio del data base di Napster, arricchito da file di scambio. L'opportunità di scaricare gratuitamente da Internet brani musicali, solo previa registrazione dell'utente, ha richiamato l'attenzione sul problema dei diritti d'autore e ha minato alla base l'industria discografica, pertanto nel 2000 la società è stata messa sotto processo per violazione della legge sul copyright. Condannata nel febbraio 2001 dalla Corte d'appello federale degli Stati Uniti, Napster per scongiurare la chiusura è stata costretta ad attivare dei filtri che impediscono agli utenti di scaricare file audio coperti da copyright Netscape Communication società fondata nel 1994 da un gruppo di programmatori distaccatisi dal National Center for Supercomputing Applications (NCSA), il centro di ricerca dell'Università di Urbana Champaign nell'Illinois, responsabile dello sviluppo di Mosaic, il primo programma grafico per la navigazione nel World Wide Web, realizzato nel 1993. Nello stesso anno la N. ha distribuito gratuitamente sulla rete Internet il suo browser Navigator, che ha riscosso un clamoroso successo, trasformando la società in uno dei colossi del panorama informatico mondiale, tanto che l'elevata quotazione in borsa delle sue azioni nel 1995 ha rappresentato un vero e proprio caso economico e finanziario. Successivamente, nonostante l'immissione sul mercato di un nuovo concorrenziale browser della Microsoft, Internet Explorer, e la perdita progressiva di importanti quote di mercato, la N. ha sviluppato nuove versioni del browser, mantenendo la sua caratteristica di prodotto multipiattaforma (con funzionalità analoghe, non solo per Windows, ma anche per Macintosh e per sistemi Unix come Linux). Navigator è stato, infatti, il primo browser che ha permesso, attraverso il modulo denominato Cosmo Player, la navigazione in rete in realtà virtuale (RV), e ha accresciuto la sua funzionalità con un gran numero di programmi: p. es., visualizzatori per i documenti di tipo PDF (Portable Data Format) utilizzato dai diffusi programmi di impaginazione professionale della Adobe; per i filmati QuickTime; per le animazioni realizzate con i prodotti Macromedia, per i moduli didattici realizzati in Asymetrix Toolbook. I produttori di N., inoltre, con una notevole capacità previsionale e innovativa hanno introdotto rapidamente il supporto per il linguaggio Java, svolgendo un lavoro pionieristico nel campo dei 'miniprogrammi su pagina' realizzati in Javascript. Alla fine del 1998 la società è stata acquisita da American Online. Network Computer macchina strutturata per navigare in Internet, richiamando dalla rete il software necessario all'utente. Comprende tastiera, mouse e un minimo di memoria per il software di base. Non ha dischi fissi e fa a meno di CD-ROM. È Internet che gli permette di consultare milioni di pagine sul World Wide Web, scaricare film e videoclip musicali. Lo standard network può essere adottato da dispositivi come telefoni, televisori, agende elettroniche, nonché macchine definite “elettrodomestici elettronici”, concepite per sfruttare determinate funzioni di Internet Nickname s. ingl. usato in it. come sm. (propr.soprannome). Chiamato anche alias, è un nome utilizzato per facilitare la gestione di un indirizzario relativo a un sistema di posta elettronica. Per evitare di digitare un determinato indirizzo, con l'eventuale possibilità di incorrere in errori, ogni volta che si intende inviare un messaggio a una certa persona, o gruppo di persone, ecc., dopo aver abbinato all'indirizzo il vero nome del destinatario, basta assegnare a questo un n.; a questo punto, ogni volta che si desidera spedire un messaggio a quell'indirizzo sarà sufficiente digitare il n. e il sistema provvederà all'invio. NOR in elettronica digitale, operatore logico e corrispondente circuito elettronico. È costituito dall'insieme dei circuiti OR e NOT NOT in elettronica digitale, operatore logico e corrispondente circuito elettronico. Produce il valore (o livello) 1 quando l'operando vale 0 e viceversa. Noteboock personal computer portatile di peso non superiore ai 4 kg, comprensivo dell'alimentatore e delle batterie O OCR in informatica, iniziali di Optical Character Recognition (lettore di caratteri ottici). Tale dispositivo analizza, riconosce e codifica informazioni stampate o scritte in caratteri alfanumerici. I moderni O. sono in grado di leggere la maggior parte dei documenti stampati e scritti con calligrafia molto precisa e regolare, con un elevato grado di riconoscimento. Tuttavia il riconoscimento ottico della normale calligrafia corsiva è un obiettivo non ancora raggiunto. Off line loc. ingl. (propr. fuori linea). In informatica, di unità di elaboratore non controllata direttamente dall'unità centrale; il termine è contrapposto a on line, in linea. On line loc. ingl. (propr. in linea) usata in it. come agg. In informatica, detto di unità di elaboratore direttamente controllata dall'unità centrale; il termine è contrapposto a off line, fuori linea. Operando In informatica, dato numerico sul quale si effettua un'operazione aritmetica o logica. Per estens. le parti di un'istruzione che specificano le entità sulle quali si effettua l'operazione. P. es., nell'istruzione: ADD A, B ADD è il codice dell'operazione, mentre A e B sono gli o. e possono essere nel caso più semplice i numeri da sommare, più in generale i contenuti di registri o memorie che il sistema di decodifica dell'istruzione è in grado di reperire e acquisire. Operatore booleano Ogni linguaggio contiene un insieme di caratteri speciali che, usati sui valori, riescono a modificarli, a confrontarli, a usarli in operazioni aritmetiche e a combinarli. Gli operatori b., infatti, eseguono operazioni logiche, formalizzando le relazioni di esclusione e inclusione nell'algebra b., e per questo motivo hanno trovato larga applicazione in sistemi di elaborazione di ricerche per parole chiave, dette appunto ricerche b., come nei data base o nei motori di ricerca su Internet. I principali operatori b. sono AND, OR e NOT e le loro funzioni variano a seconda della ricerca che si vuole effettuare: p. es. se si vogliono cercare informazioni relative a “editoria italiana”, formulando la query con AND posto tra i due termini si troveranno documenti in cui sono presenti entrambe le parole; allo stesso tempo, usando la funzione OR, i documenti restituiti conterranno almeno uno dei due termini indicati o entrambi; digitando, invece, “editoria NOT italiana” si otterrà in risposta l'elenco di tutte le risorse che si riferiscono solo alla parola editoria, ma non alla parola italiana. OR in elettronica digitale, operatore logico e corrispondente circuito elettronico. Produce il valore (o livello) 1 quando uno o entrambi gli operandi valgono 1, altrimenti il risultato è 0. OS in informatica, abbreviazione ingl. di sistema operativo (Operating System). Sistema organico di programmi di controllo per un elaboratore che gestisce le funzioni interne dell'elaboratore stesso e fornisce all'utente un insieme di opzioni per controllare le operazioni dell'elaboratore e dei relativi dispositivi periferici. Un sistema operativo svolge almeno i seguenti compiti: accetta i comandi da tastiera, penna elettronica, mouse; crea, copia, distrugge archivi su disco; carica programmi e archivi; gestisce il video e le periferiche in generale (stampante). I sistemi operativi più noti sono il CP/M, il DOS, il Macintosh, l'OS/2 e l'UNIX. OS/2 sistema operativo sviluppato da IBM e Microsoft per elaboratori utilizzanti i microprocessori Intel 80286 e 80386. È visto come il successore del MS-DOS di cui supera in particolare i limiti di indirizzamento della memoria (640 kilobyte). L'OS/2 permette l'elaborazione di più compiti (multitasking) ed è dotato di un'interfaccia a finestra con memoria a icone, utilizzabile con il mouse. Ottale agg. [da otto]. In informatica, numerazione o., sistema di numerazione in base 8 impiegata nell'elaborazione dei dati. Output termine che esprime il risultato di un'operazione, di una scelta, di un'azione. In informatica, equivalente di uscita. Si contrappone a input. Overflow s. ingl. (propr., straripamento) usato in it. come sm. In informatica, superamento della capacità di un dispositivo di elaboratore, p. es. della capacità di un registro o un'area di memoria. Nell'esecuzione di una somma, p. es., il risultato può avere un numero di cifre tale da non poter stare nell'area di memoria a esso destinata. Quando il risultato di un'operazione aritmetica produce o. viene attivato nell'elaboratore un apposito indicatore. Overlay s. ingl. (propr. copertura) usato in it. come sm. In informatica, sezione di programma contenuta in una memoria periferica che viene trasferita in memoria centrale solo al momento dell'utilizzo. Il termine si riferisce al fatto che vari segmenti di programma possono occupare successivamente la stessa area di memoria. P Package s. ingl. (propr. pacco, pacchetto) usato in it. come sm. In informatica, p. applicativi, o pacchetti di software, insiemi di programmi predisposti per risolvere un problema di carattere generale in tutti i casi particolari in cui si presenta. Si hanno, p. es., p. per il controllo di una data produzione, p. per calcolare gli stipendi dei dipendenti di un'azienda, ecc. Palm Top loc. ingl. (da palm, palma, e top, propr. vetta, cima) usata in it. come sm. Computer portatile, detto anche “palmare” per le sue dimensioni ridotte (pesa soltanto 350 g comprese le batterie) che consentono di poterlo utilizzare tenendolo in mano. Dotato di word processor per la creazione di documenti, con annesso controllo ortografico e dizionario, offre, oltre alle normali funzioni di agenda elettronica e calcolatrice, la possibilità di inviare e ricevere fax e messaggi di posta elettronica, collegarsi a Internet, consultare banche dati e archivi aziendali. I comandi, oltre che con la tastiera, possono essere dati toccando lo schermo con un'apposita penna che consente, in modelli più sofisticati, di riconoscere la scrittura manuale. Password s. ingl. usato in it. come sf (propr. parola d'ordine). In informatica, sequenza di caratteri alfanumerici richiesta per accedere a un elaboratore quando sono attive procedure di sicurezza. PC sigla dall'ingl. personal computer (elaboratore personale). In informatica, elaboratore a largo spettro di applicazioni utilizzato da un singolo utente alla volta. La scala di applicazione dei P. spazia da economici mezzi domestici e di divertimento con memoria limitata a macchine estremamente sofisticate con processori potenti, memoria a disco di grande capacità, sistemi grafici a colori con elevata risoluzione. Negli ambienti scientifici e finanziari, il P. è un'alternativa concreta ai terminali connessi a sistemi a partizione di tempo, in quanto la loro connessione in rete permette la trasmissione di dati con altri elaboratori. Peer to peer loc. ingl. (propr. da pari a pari; paritetico) usata in it. come sm. In informatica, tipologia di architettura di rete network computer, in cui drivers, files e stampanti di ogni computer sono messi a disposizione di altri, senza utilizzare un server dedicato. Il ruolo del server viene ridotto a vantaggio dei clients e allo stesso tempo ogni computer può eseguire anche programmi applicativi locali. Penna in informatica: a) penna luminosa, dispositivo fotoelettrico usato in coppia con un terminale video per richiamare sullo schermo informazioni, per modificare quanto appare su di esso o per introdurre informazioni nell'elaboratore scrivendo sullo schermo come su una lavagna; in questo ultimo caso si possono tracciare anche dei grafici che, opportunamente digitalizzati, vengono poi introdotti nell'unità centrale. La penna luminosa, inizialmente alternativa al mouse, che si è dimostrato più competitivo, è tornata sul mercato in conseguenza dello sviluppo e della diffusione di elaboratori personali portatili molto compatti (palm top) sempre più potenti, capaci in particolare di ospitare complessi programmi di lettura della scrittura e per i quali le dimensioni di una tastiera funzionale rappresentano un problema; b) penna scanner, dispositivo utilizzato per memorizzare in un apposito archivio indirizzi di siti Web e di posta elettronica. Pentium microprocessore informatico sviluppato dalla Intel Corporation. Rappresenta un'evoluzione rispetto ai processori della famiglia 80x86, ma si distingue dai precedenti modelli per la potenza di calcolo notevolmente superiore e per un'architettura interna adatta ai sistemi operativi a 32 bit, quali Windows 95, Windows 98 e Windows 2000. Attualmente i Pentium più potenti possono lavorare con frequenze di oltre 800 MHz. Periferica, unità in informatica, macchina che opera in collegamento e sotto il controllo dell'unità centrale. Le periferiche più importanti sono: a) le periferiche di ingresso: tastiera, mouse, penna ottica, tavoletta elettronica; b) i visualizzatori: schermo video a raggi catodici e quelli piatti a cristalli liquidi o al plasma; c) le stampanti (ad aghi, a getto di inchiostro, laser) e i plotter (registratori a penna); d) le unità di memorizzazione di massa a disco (ottico o magnetico) e a nastro (magnetico); e) le interfacce analogico-digitali per il comando di apparecchiature (motori) e per i modem; f) i lettori ottici, i sintetizzatori della voce e altri. Personal computer (inglese: elaboratore personale), elaboratore basato su un singolo microprocessore. Poiché è in grado di svolgere istruzioni ricevute mediante un programma, il personal computer è un elaboratore autonomo e autosufficiente, a differenza dei terminali che sono collegati a mainframe. Nella sua configurazione standard un personal computer è costituito da un'unità centrale di elaborazione (CPU, Central Processing Unit) basata sul microprocessore che presiede al controllo di tutto il sistema e all'esecuzione delle operazioni aritmeticologiche. La memoria centrale è realizzata con circuiti integrati tipo RAM (Random Access Memory, memoria ad accesso casuale): in essa si può quindi raggiungere direttamente qualsiasi posizione o cella di memoria. La memoria di massa (memoria esterna) dei personal computer è generalmente costituita da floppy disk e da dischi rigidi, o hard disk, contenuti in unità sigillate a tenuta di polvere. I dispositivi più usati nei personal computer per introdurre dati sono la tastiera e il mouse; i dati sono visualizzati su un video. Photo CD (in sigla, PCD), disco ottico che contiene un certo numero di fotografie in forma digitalizzata, acquisite tramite scanner, ciascuna delle quali è stata archiviata con le informazioni necessarie per riprodurla con diverse risoluzioni. In futuro, i p. potranno anche contenere suoni e filmati video. Per poter consultare un PCD si possono utilizzare quasi tutte le piattaforme hardware dotate di un lettore CD-ROM XA o anche il televisore, equipaggiato con appositi dispositivi. PING in informatica, acronimo di Packet InterNet Groper. Programma che consente di controllare se un determinato host della rete sia effettivamente attivo; richiede semplicemente di digitare il nome dell'host o il relativo indirizzo numerico. Pipeline s. ingl. (propr. oleodotto) usato in it. come agg. e sf. In informatica, è usato per indicare una nuova architettura di microprocessori, che permette di far lavorare in modo simultaneo, o parallelo, le varie parti che compongono una CPU. In un'architettura pipeline i vari stadi che processano le istruzioni si comportano come una catena di montaggio in cui il lavoro avviene simultaneamente. Ciascun elemento della catena, terminata la propria operazione, passa il dato alla stazione successiva. In un processore con architettura pipeline, per ciascun ciclo di clock, ci può essere un'istruzione in fase di caricamento, una in decodifica, una in fase di trasferimento, una in esecuzione mentre il risultato sta per essere scritto in uscita. In un'architettura semplice può essere caricata nella pipeline solo un'istruzione per volta, perché esiste solo una stazione per ciascuna fase del processo. In una pipeline superscalare le stazioni sono duplicate e possono eseguire per ciascun ciclo di clock più istruzioni contemporaneamente. La pipeline di un Pentium PRO può contenere fino a cinque istruzioni contemporanee per ciascun ciclo di clock. Nel Pentium 4 la INTEL ha utilizzato anche una tecnologia detta NetBurst, che raddoppia gli stadi della pipeline (20 nel Pentium IV contro i 10 del Pentium III), in modo da ridurre il tempo di esecuzione di ciascuna fase del processo ed aumentare la frequenza di clock. Pixel (dall'inglese: picture element, elemento d'immagine), termine usato quando ci si riferisce a immagini presentate in forma digitale. All'interno del pixel, in genere quadrato o rettangolare, non può variare né la luminosità né il colore. PL/1 sigla dell'ingl. Programming Language 1. In informatica, linguaggio di programmazione realizzato con lo scopo di fondere le caratteristiche dei linguaggi gestionali come il COBOL e dei linguaggi scientifici come l'ALGOL e il FORTRAN Plotter s. ingl. (da to plot, tracciare) usato in it. come sm. In informatica, registratore a penna per disegni di alta qualità su carta che può essere comandato dal sistema di input/output di un elaboratore. I p. sono in pratica composti da un braccio comandato da un amplificatore orizzontale e da uno stilo comandato da un amplificatore verticale, per cui lo stilo può assumere qualunque posizione su un piano xy. I p. sono una periferica molto diffusa degli elaboratori personali, possono essere a colori e hanno prestazioni diverse in termini di dimensioni, precisione e velocità. Plug-in Estensione aggiuntiva che aumenta le potenzialità di un programma. Plug-in molto noti sono, ad esempio, quelli che consentono ai browser di visualizzare dati in formato flash. Negli ultimi anni ci si sta avviando a una standardizzazione del formato dei plug-in (ad esempio quelli dedicati alle applicazioni di fotoritocco e grafica bitmap), in modo che possano essere utilizzati da altri applicativi. Portale in informatica, sito che rimanda ad altri siti. Naturale evoluzione dei motori di ricerca, un portale contiene anche un gran numero di informazioni e notizie (dalle previsioni del tempo agli oroscopi, ecc.), offrendo al contempo a chi si collega la possibilità di personalizzarlo in base alle proprie esigenze. Posta elettronica Possibilità di inviare e scambiarsi messaggi per mezzo di elaboratori collegati in rete. Con la diffusione delle reti telematiche e in particolare di Internet è oggi possibile inviare tramite il proprio terminale di rete messaggi, anche complessi ed elaborati come documenti grafici, brani musicali e altro. La posta elettronica, o e-mail, gode dei notevoli vantaggi di essere rapidissima e molto economica: qualsiasi messaggio può essere infatti spedito in tempo reale in qualunque parte del mondo al costo di una telefonata urbana. Il primo utilizzo della posta elettronica è avvenuto nel 1972; con il tempo si sono poi diffusi programmi che ne hanno migliorato la gestione. Un indirizzo di posta elettronica è caratterizzato dalla presenza del simbolo @ (at), collocato tra il nome scelto dall'utente e il dominio corrispondente all'host, il computer sul quale materialmente risiede la casella postale e che spesso coincide con il fornitore di accesso a Internet. Alla fine del XX secolo, sulla rete Internet, l'uso dell'e-mail si è intensificato grazie al fenomeno della posta gratuita, freemail, che consiste nell'aprire gratuitamente, su un sito predisposto, una casella di posta elettronica. Numerosi sono i siti Internet che forniscono un servizio di posta gratuita sui propri server: uno dei primi è stato Hotmail. Nel 1999, inoltre, il software Mercury Mobile ha reso possibile, grazie a un sistema di sintesi vocale, ascoltare e inviare e-mail dal proprio telefono fisso o mobile. P.P.P. sigla dell'ingl. Point to Point Protocol, protocollo di comunicazione punto a punto che consente a chi non dispone di un accesso diretto a Internet il collegamento alle risorse della rete mediante un modem e la normale linea telefonica. Processore sm. [dall'ingl. processor, der. da to process, trattare, elaborare]. In informatica, unità di elaborazione; termine generale usato per ogni unità capace di svolgere operazioni su dati; talvolta è usato come sin. di unità centrale. Programma in informatica, insieme ordinato di istruzioni che comandano l'esecuzione di operazioni di trattamento dati. Le principali famiglie di programmi sono, oltre ai linguaggi di programmazione, i programmi per il trattamento dei testi (word processor), i programmi per la gestione di archivi (data base), i fogli elettronici (spreadsheet), i programmi di presentazione grafica, i programmi amministrativi e contabili, i programmi per la progettazione e la produzione assistita da calcolatore (CAD e CAM), i programmi per il calcolo scientifico e i programmi di comunicazione (telematica). Programmatore sm. (f. -trice) [sec. XX; da programmare]. 1) In informatica, persona responsabile della preparazione di programmi a partire dalle relative specifiche di programma. PROLOG acronimo di PROgrammazione LOGica. In informatica, linguaggio di programmazione di alto livello utilizzato, con il LISP, lo Small Talk e altri nell'intelligenza artificiale. Il P., sviluppato in Europa, è basato sulle tecniche di logica matematica, è interattivo e dichiarativo, ossia non procedurale. In sostanza con una serie di enunciati si dichiarano fatti e relazioni e con l'interrogazione si accede alla base dei dati così costituita. L'interprete P. possiede un motore inferenziale, ossia un metodo per trarre deduzioni e procedure e collegare l'interrogazione con la base di conoscenze per costruire una risposta. Il P. è il linguaggio più usato per i sistemi esperti, sistemi interattivi uomo-macchina con competenze specializzate per risolvere problemi in aree definite (medicina, ingegneria, chimica, matematica). PROM sigla dell'inglese Programmable Read Only Memory (memoria a sola lettura programmabile). È una memoria elettronica di tipo ROM il cui contenuto non viene però definito una volta per tutte dal costruttore, ma può essere programmato dai singoli utenti. Prompt s. ingl. (propr., incitamento, suggerimento) usato in it. come sm. In informatica, simbolo o frase che appare sullo schermo di un elaboratore. Esso indica all'utente che l'elaboratore attende un comando. Il p. spesso è costituito da simboli mnemonici che indicano il tipo di dato atteso (p. es. enter name). Protezione (del software) In informatica, i reati di pirateria rendono necessaria la protezione del software e dei dati, protezione che può avvenire a diversi livelli, a costi e complessità crescenti. La protezione delle copie, il procedimento più semplice, ha la controindicazione di ostacolare il mercato delle copie autorizzate e di essere facilmente aggirabile. La validazione, ossia la tecnica per cui il software controlla il diritto d'uso dell'utente tramite chiavi e cablaggi personalizzati, offre una protezione intermedia che può essere aggirata scoprendo il codice di validazione. L'impiego della crittografia offre la massima sicurezza, ma richiede un hardware specializzato (i criptoprocessori), allunga i tempi e comporta problemi per la gestione delle chiavi. La decifrazione richiede una chiave specifica, diversa e indipendente da quella di codifica, che va personalizzata a un hardware abilitato. Rientrano nelle tecniche di protezione le apparecchiature biometriche che misurano caratteristiche uniche, come le impronte digitali, la retina, la geometria della mano, oppure la voce, la dinamica della firma, il ritmo di battitura su una tastiera. Protocollo Insieme di regole che definiscono le modalità di scambio dei dati tra entità in comunicazione su un network. In altre parole, il protocollo è una sorta di "linguaggio", che tutti gli interlocutori devono comprendere per poter comunicare, il che, trasposto nel mondo dei computer, significa che è necessario installare lo stesso protocollo (che fisicamente è un programma) su tutte le macchine che si desidera mettere in comunicazione.§§Generalmente, con il termine "protocollo" si indica in realtà un insieme di protocolli: nella classificazione OSI ne esiste uno diverso per ogni servizio che un certo livello dell'architettura deve compiere: ci sono protocolli per l'accesso al mezzo fisico (CSMA/CD) , per l'instradamento del messaggio (3) nella / rete, per il controllo degli errori di trasmissione, e così via. Ad esempio, un protocollo di trasporto (che garantisce la comunicazione affidabile e si trova al livello 4 di OSI), sarà un programma che implementa regole simili alle seguenti:§§• se arriva un messaggio da inoltrare sulla rete, lo divido in datagram e li passo al livello 3;§§• per ogni pacchetto inviato faccio partire un cronometro (timeout). Se entro un certo tempo non mi arriva il messaggio di conferma dal destinatario, invio di nuovo il pacchetto;§§• quando mi arriva un pacchetto di dati, controllo il suo numero di sequenza. Se ho già ricevuto tutti i pacchetti precedenti, lo consegno al livello 5, altrimenti aspetto;§§• quando mi arriva un pacchetto dal livello 3, controllo di non averlo già ricevuto, nel qual caso lo scarto.§§Il protocollo maggiormente utilizzato su Internet è il TCP/IP, che sostituisce il livelli 1,2,3 e 4 della classificazione OSI. Provider s. ingl. (propr. fornitore) usato in it. come sm.. In informatica, società o istituzione che affitta parte dei suoi collegamenti con la rete Internet ad altre società e privati, per fornirne l'accesso. Il p., da un punto di vista prettamente tecnico, è un insieme di computer connessi sia con dei modem pronti a ricevere le chiamate degli utenti sia con Internet. Q Query s. ingl. (dal verbo to query, chiedere) us. in it. come sf. inv. In informatica, interrogazione di un data base, organizzata secondo i criteri stabiliti nella creazione della banca dati; il motore di ricerca, recuperata l'informazione richiesta in base ai dati inseriti dall'utente, genera una pagina HTML di risposta. Qwerty schema standard della tastiera delle macchine da scrivere o degli elaboratori. Venne realizzato più di un secolo fa per rallentare la velocità di battitura, evitando così il blocco dei vecchi sistemi meccanici. Tale schema prende il nome dalle prime sei lettere alfabetiche in alto a sinistra della tastiera. Oggi, dato che l'elettronica ha permesso velocità di battitura molto elevate, la tastiera Q. viene sostituita dalla “Dverak”. Alcune case produttrici di elaboratori offrono oggi tastiere provviste di un interruttore che permette il passaggio da un tipo all'altro. R RAM sigla dell'inglese Random Access Memory (memoria ad accesso casuale), memoria elettronica che consente le operazioni di scrittura e di lettura di informazioni negli elaboratori. Random agg. ingl. (propr., fatto a caso, fortuito) usato in it. come agg. e sm. 1) Nelle telecomunicazioni, termine tecnico comunemente impiegato per designare un involucro realizzato con materiale tale da non attenuare le radioonde (p. es. fibra di vetro o speciali resine) che viene impiegato per proteggere le antenne radio dagli agenti atmosferici come pure, in qualche caso, per ridurne la resistenza al vento. 2) In informatica, per r. access storage o r. access memory, memoria ad accesso casuale, v. memoria. Ratio s. lat. usato in it. come sf. (propr. rapporto). In informatica, rapporto tra files trasmessi (upload) e prelevati (download). In genere è usato nei BBS per individuare gli utenti intenzionati solo al prelievo di dati. Real time loc. ingl. che in informatica equivale a tempo reale Realtà virtuale tecnica di programmazione e di uso dei computer mirata alla simulazione di ambienti e situazioni non riproducibili con i normali strumenti di riproduzione audiovisuale. Si definisce 'virtuale', quindi, una sequenza di immagini e suoni interamente generata dal computer e in grado di avvicinarsi talmente alla realtà da sembrare vera. La realtà virtuale viene impiegata principalmente in cinematografia nella creazione di effetti speciali e nelle simulazioni per addestramento aeronautico e militare. Record In informatica, elenco base di un flusso di dati di consultazione, composto a sua volta da un certo numero di elementi di informazione tra loro collegati. R. fisico, insieme di dati che può essere letto e registrato con una singola operazione di lettura e di registrazione (schede perforate, nastro magnetico, ecc.); r. logico, r. contenente un insieme logicamente compiuto di dati. Recovery In informatica, ripristino, ripresa dell'elaborazione da un punto precedente in occasione di un errore o di un guasto all'elaboratore. Refresh Frequenza con cui viene aggiornato il contenuto delle memorie dinamiche. Frequenza con la quale la scheda video è in grado di aggiornare l'immagine inviata al monitor. Registrare In informatica, inserire nuove informazioni in un record o trasferire dati da un certo supporto di memoria a un altro. Remote access Applicazione grafica funzionante in ambiente Windows 95/98, NT, che guida l'utente nell'accesso a un server remoto (tipicamente un Internet provider) , consentendo contemporaneamente di impostare i parametri di configurazione del proprio modem. Una volta definiti tutti i parametri necessari per attivare la connessione (numero di telefono, indirizzo del DNS, ecc.), questi possono essere salvati su un file, richiamabile direttamente ogni volta che si ha la necessità di stabilire la stessa connessione. In questo modo le operazioni preliminari all'attivazione della connessione vengono eseguite automaticamente e in modo rapido Remoto In informatica, elaboratore r., o elaboratore satellite, elaboratore elettronico collegato generalmente a distanza a un altro di maggiori dimensioni rispetto al quale adempie funzioni di elaboratore a filtro, effettuando pre- e postelaborazioni dei dati che arrivano e vengono trasmessi tra l'unità centrale e, p. es., l'insieme dei terminali compresi in una certa area; svolge anche lavori di elaborazione in proprio. Report Rapporto. Metodo di presentare dati in modo fomattazione e organizzato. È molto utilizzato nei programmi di gestione dei database. Reset s. ingl. (da to reset, rimettere a posto) usato in it. come sm. In informatica indica il rimettere a zero, ripristinare, risettare (p. es. nel senso di rimettere a zero un contatore). Rete In elettrotecnica, circuito formato da un certo numero di elementi connessi tra loro; i punti di connessione si chiamano nodi || Rete di telecomunicazioni: insieme di apparati telefonici di utente, posti di pubblica utenza telefonica, stazioni di radiocomunicazione, centrali di commutazione e d'instradamento interurbano e delle relative linee d'interconnessione radiotelefoniche. La Rete (v. Internet) RFC acronimo per Request For Comment. In informatica, serie di documenti di lavoro emessi dalla comunità di ricerca e sviluppo di Internet e aggiornati di frequente, con spiegazioni di carattere tecnico sui protocolli, sulle tematiche di trasmissione dati, sulla gestione ed evoluzione della rete, ecc. Riversamento In partic., in informatica, trasferimento di un insieme di informazioni, registrate su un dato supporto, su un altro supporto o dello stesso tipo o di tipo diverso. P. es., se le informazioni sono registrate su un nastro, si può effettuare il r. su un altro nastro mediante il segnale elettrico di uscita del registratore. Per r. della memoria o mappa della memoria, v. mappa. Riversare In informatica, trasferire mediante riversamento: r. una registrazione. 5) Nella tecnica di registrazione (sonora o visiva), trasferire suoni o immagini da un supporto (pellicola o nastro magnetico) a un supporto diverso, o uguale, ma di standard diverso (p. es. da nastro Video 8 a nastro VHS). Robot termine (dal ceco robota, lavoro forzato, nome dato dallo scrittore K. Čapek ad automi che nel suo dramma R.U.R. agiscono come operai) che designa macchine capaci di compiere azioni complesse, previste da un determinato programma e senza il diretto controllo dell'uomo. Nella moderna produzione industriale si è giunti a un accordo di massima per definire robot solo macchine multiscopo, adatte a movimentare pezzi e utensili secondo sequenze spaziali e temporali variabili in funzione delle esigenze e degli ambienti in cui si trovano a operare. Il robot industriale è cioè una macchina programmabile in modi differenti secondo le esigenze di lavorazione. Dal punto di vista costruttivo, i robot sono macchine dotate di parti mobili con organi di presa specializzati per eseguire lavorazioni. L'azionamento delle parti mobili (elettromagnetico, idraulico o pneumatico) è comandato da un elaboratore programmabile in funzione delle mansioni alle quali s'intende adibire il robot. Le parti mobili sono generalmente costituite da bracci meccanici articolati alle cui estremità è posto un dispositivo di serraggio o un utensile (verniciatore, saldatore, per lavorazioni meccaniche ecc.). Robotica sf. [sec. XX; da robot]. Moderna tecnica di progettazione e di costruzione di robot. ROM Read Only Memory] Memoria di sola lettura non volatile utilizzata per conservare informazioni vitali per il funzionamento del computer, come ad esempio nei BIOS e nelle periferica che necessitano di una inizializzazione fisica. Si tratta di chip di silicio dove la posizione degli elettroni nella struttura funge da interruttore e quindi da selettore 1-0, che consente di memorizzare i dati in formato binario. Si veda anche EPROM, EEPROM. Router s. ingl. usato in it. come sm. In informatica, elaboratore adibito all'interconnessione di reti eterogenee, come LAN e WAN, e all'instradamento dei dati lungo il percorso più favorevole, determinato in base a specifici algoritmi. Routine In informatica, termine usato per indicare un programma, o un sottoprogramma, o una sezione di un programma. S T U W X Y Z