CORSO DI ABILITÀ INFORMATICHE (modulo 1 - hardware) Giapponese a.a. 2003-2004 COMPUTER: LA STORIA IN BREVE I primordi (2000 A.C.-1591) Anche se è impossibile identificare il momento esatto in cui l’uomo incominciò a eseguire delle operazioni, sappiamo che le più antiche tracce di un procedimento matematico risalgono ad oltre trenta millenni fa. Poiché la matematica si basa su concetti astratti, l’uomo ha da sempre avuto l’esigenza di avvalersi di strumenti che gli permettessero di rendere visibili le operazioni che eseguiva e di registrare i risultati a cui queste portavano. Sicuramente, i primi strumenti utilizzati furono le dieci dita delle mani ed infatti, non a caso, ancora oggi noi contiamo secondo una scala in base dieci. Il primo calcolatore dell’umanità è stato l’abaco, presente fin dal 600-400 a.C. presso tutte le popolazioni del mondo. L’abaco, permettendo l’esecuzione delle quattro operazioni elementari anche da parte di persone analfabete, ha continuato a svolgere il suo compito fino al XVI secolo e, ancora oggi, sopravvive in alcune zone della Cina, del Giappone e della Russia. Il calcolo automatico (1591–1935) Nel XVII e XVIII secolo, i progressi fatti nel campo della meccanica di precisione, applicata soprattutto all’orologeria, permisero la nascita delle prime macchine calcolatrici a ruote dentate. Fra queste, le più note rimangono la Pascalina, costruita da Pascal nel 1642, e la Replica, realizzata da Leibniz nel 1671. Queste macchine, nate con lo scopo di affrancare l’uomo dalla necessità di eseguire calcoli, rimasero confinate alla ristretta cerchia degli scienziati: le tecnologie dell’epoca non permettevano, infatti, una loro produzione su grande scala. I principi adottati nella realizzazione della Pascalina e della Replica aprirono, comunque, la strada per la realizzazione di una serie di macchine sempre più perfezionate che vennero utilizzate fino ai primi decenni del nostro secolo. Fra queste, la macchina di Babbage e quella di Hollerith rappresentano due tappe fondamentali dell’evoluzione delle macchine da calcolo. La Macchina Analitica di Babbage (1833) era progettata per eseguire tre generi di operazioni: raccogliere e memorizzare dati immessi attraverso schede perforate analoghe a quelle già utilizzate per i telai Jacquard; operare sui dati memorizzando soluzioni parziali; stampare i risultati conseguiti. È evidente come la macchina presentasse già una struttura identica a quella che sarà adottata per gli elaboratori elettronici; purtroppo la complessità che la caratterizzava rese impossibile la costruzione di un esemplare funzionante. La macchina meccanografica di Hollerith, brevettata nel 1889, rappresentò il primo elaboratore meccanografico perfettamente funzionante. 1 Avvalendosi dell’esperienza incompleta di Babbage, l’inventore austriaco riuscì a costruire un apparato a schede in grado di compiere le tre operazioni fondamentali dell’elaborazione dell’informazione: l’input, o introduzione dei dati; il trattamento dell’informazione, o elaborazione dei dati; l’output, o uscita dei dati elaborati. Nello specifico, le informazioni venivano lette in modo elettromeccanico ed i “programmi di elaborazione” venivano realizzati mediante pannelli elettrici di connessione. Le macchine meccanografiche, nate per risolvere il problema del censimento negli Stati Uniti, ebbero un grande successo e vennero adottate anche presso altri Paesi; si diffusero, inoltre, presso le industrie dove vennero impiegate per risolvere problemi amministrativi e relativi all’analisi di mercato. Dalla calcolatrice al computer (1936-1943) Con il tempo, le macchine a schede perforate iniziarono a mostrare i loro limiti e le loro prestazioni incominciarono ad essere considerate insufficienti. Si aprì, così, una breve fase transitoria in cui vennero realizzati dispositivi elettrici che, seppur ancor classificabili nell’area delle “calcolatrici”, mostravano già il germe del “computer”, inteso come elaboratore di dati. In questa fase si colloca il primo calcolatore a funzionamento elettromeccanico programmabile, lo “Z1”, costruito nel 1936 dal professore tedesco K. Zuse. Il prototipo funzionava alla perfezione, ma i guasti erano molto frequenti e gli organi di commutazione meccanici dovevano essere realizzati con molta precisione. Un ulteriore passo in avanti fu rappresentato dalla realizzazione nel 1941 di una macchina, denominata “Z3”, con l’impiego dei più veloci e affidabili relè elettromagnetici. A Zuse spetta il merito di aver adottato nella “Z3” tre elementi fondamentali dei futuri calcolatori elettronici: il sistema binario, la virgola mobile e la programmazione su nastro perforato. Negli USA il primo prototipo funzionante di calcolatore elettronico venne realizzato dal fisico J. B. Atanasoff e da C. E. Berry nel 1939, seguito tre anni dopo da una macchina più completa, l’ABC (Atanasoff Berry Computer), progettata per risolvere un sistema di 29 equazioni lineari con il metodo di Gauss. Nel 1943, in Inghilterra, venne realizzato dai matematici A. M. Turing e M. H. Newmann, il secondo calcolatore elettronico, il COLOSSUS, usato per decifrare i codici segreti. La prima generazione (1943-1954) Le esigenze imposte dalla seconda guerra mondiale spinsero i governi dei diversi Paesi ad investire massicciamente nella ricerca di nuove tecnologie. Le scoperte a cui si arrivò consentirono di sostituire i relè con le valvole termoioniche: questo passaggio dai dispositivi elettromeccanici a quelli elettronici rappresentò una tappa cruciale e permise di ottenere un aumento consistente della velocità di calcolo (da una moltiplicazione di 2 due numeri di 23 cifre in sei secondi, ad oltre trecento moltiplicazioni al secondo). Questa “prima generazione” di computer si contraddistinse anche per l’adozione del sistema numerico binario, del programma memorizzato, di una vasta gamma di memorie centrali ed ausiliarie, dei linguaggi di programmazione. L’ultima calcolatrice realizzata con dispositivi meccanici, ma la prima a funzionare con programmi registrati, fu il “Mark 1”, realizzato nel 1944 presso i laboratori IBM da H. Aiken. Nel 1946, invece, finanziato dall’esercito degli Stati Uniti al fine di calcolare velocemente le tavole di tiro dei cannoni, venne costruito, presso l’Università della Pennsylvania, su progetto di J. P. Eckert, J. W. Mauchly e H. H. Goldstine, il terzo calcolatore elettronico, L’ENIAC (Elettronic Numerical Integrator And Calculator). Costituito da 19.000 tubi elettronici, 1.500 relè, 10.000 condensatori e 70.000 resistori, per un peso complessivo di 30 tonnellate, l’ENIAC rappresentò una meraviglia per il suo tempo e diventò il capostipite per la moderna scienza dei computer. Nel 1948 entra in scena l’IBM con il primo calcolatore commerciale a tubi elettronici: il SSEC (Selective Sequence electronic Calculator). La velocità di elaborazone era straordinaria per l’epoca: 3500 addizioni e sottrazioni al secondo su numeri da 19 cifre. All’Università di Cambridge, nel 1949, Wilkes progettò e realizzò l’EDSAC (Electronic Delay Storage Automatic Computer): dispositivo di input era il lettore di banda perforata e dispositivo di output una telescrivente. Gli stessi progettisti dell’ENIAC, J. P. Eckert e J. W. Mauchly, realizzarono nel 1950 l’UNIVAC-1, il primo computer ad essere prodotto in serie per scopi commerciali e ad essere utilizzato per fini gestionali e non esclusivamente scientifici. Nel 1952, Von Neumann progettò e realizzò l’EDVAC (Electronic Discrete Variable Automatic Computer) la cui architettura interna divenne la pietra miliare per la costruzione dell’hardware dei calcolatori elettronici. La macchina di Von Neumann fu la prima a programma registrato: una innovazione importantissima rimasta fino ad ora invariata. L’intuizione di Von Neumann fu quella di esprimere le istruzioni per il calcolatore nella stessa forma dei dati, cioè attraverso un codice opportuno, e di immagazzinarle in memoria prima dell’avvio dell’elaborazione. Le istruzioni, avendo la stessa forma dei dati, potevano essere elaborate dall’unità aritmetico-logica della macchina qualificando così il calcolatore rispetto alla semplice macchine da calcolo che, invece, funziona a programma cablato (cioè fisso, non modificabile). La seconda generazione (1955-1964) A partire dalla seconda metà degli anni ‘50, le valvole termoioniche cominciarono ad essere sostituite con i transistor, dando vita a quella che viene identificata come “seconda generazione”. I transistor presentavano il vantaggio di essere più economici, molto più piccoli, decisamente più affidabili e , infine, di consentire un aumento di 10 volte della velocità di elaborazione. 3 In contemporanea con il perfezionamento delle macchine, si verificò anche un notevole sviluppo dei linguaggi di programmazione e cominciarono ad essere utilizzati i primi Sistemi Operativi (insiemi di programmi residenti sull’elaboratore atti a rendere efficiente il suo utilizzo). Fra i linguaggi introdotti in questo periodo ricordiamo l’ALGOL (ALGOrithmic Language), adatto per le applicazioni scientifiche, e il COBOL (Common, Business, Oriented Language), voluto dal Dipartimento della Difesa degli Stati Uniti con lo scopo di definire un linguaggio standard per le applicazioni commerciali. Il computer diventò, così, accessibile ad una vasta gamma di attività e si diffuse in decine di migliaia di esemplari in tutto il mondo. La terza generazione (1964 -1970) Da un punto di vista hardware, la “terza generazione” si caratterizzò per l’impiego dei circuiti integrati o chip, per lo sviluppo di memorie a dischi magnetici di grande capacità e per l’utilizzo dei primi collegamenti a distanza fra gli elaboratori. Il circuito integrato, inventato nel 1958 da J. St. Clair Kilby, della Texas Instruments, è costituito da una piastrina di silicio di pochi millimetri quadrati su cui vengono inseriti numerosi transistor e altri componenti elettronici come resistenze e condensatori. Con il passare del tempo, la quantità di componenti contenuti in un chip aumenterà progressivamente, tanto che il loro grado di integrazione diventerà il criterio in base al quale distinguerli in classi: dopo i primi esemplari degli anni ‘60 chiamati SSI (Small scale integration), con qualche decina di componenti, e MSI (Medium scale integration) fino a 500 componenti, si passerà negli anni ‘70 agli LSI (Large scale integration) con alcune migliaia di componenti. L’adozione dei circuiti integrati negli elaboratori della “terza generazione” consentì una drastica riduzione di costo, peso ed ingombro, ed una velocità di calcolo dell’ordine dei nanosecondi (miliardesimi di secondo). Dunque, un’elaborazione che richiedeva circa un’ora di tempo agli inizi degli anni ‘50, veniva eseguita alla fine degli anni ‘60, su una macchina di dimensioni analoghe, in pochi secondi. Contro le 2.200 moltiplicazioni al secondo di un computer della prima generazione e le 38.000 di uno della seconda, i sistemi della terza generazione potevano svolgerne 2 milioni, ad un costo cento volte inferiore. Anche nel campo del software, si registrarono notevoli progressi: nel 1965, ad esempio, venne sviluppato il BASIC (Beginner All Purposes Symbolic Instruction Code), come strumento di addestramento degli studenti. Essendo un linguaggio di facile apprendimento e di tipo interattivo, il Basic ebbe subito un notevole successo commerciale. Nel 1966 venne presentato dalla Olivetti il “Programma 101”, il primo personal computer del mondo prodotto in serie: è la prima macchina personale di elaborazione dei dati dotata di un programma registrato in memoria, di un supporto magnetico per l’introduzione e l’uscita dei dati e 4 di un semplice sistema di programmazione. Prima del P101 esistevano solo grandi calcolatori, gestiti da personale specializzato e situati in centri di calcolo non accessibili agli utenti, oppure le tradizionali calcolatrici prive di capacità di programmazione. La nascita del personal computer Nel 1971 ebbe inizio una seconda rivoluzione industriale grazie all’invenzione, da parte di F. Faggin, M. E. Hoff e S. Mazer, del microprocessore, un “supercircuito” integrato, impiantato su una piastrina di 4,3 millimetri, contenente ben 2.250 transistor che costituiscono tutti i componenti di una unità centrale di elaborazione. Questo microprocessore, l’Intel 4004, con parallelismo a 4 bit e una capacità di calcolo di 60 mila operazioni al secondo, segnò l’inizio della quarta generazione di elaboratori che è ancora valida attualmente. Inizialmente, i microprocessori vennero impiegati soprattutto come CPU di impiego speciale (controlli di processo, ascensori, calcolatrici), ma nel 1976 due giovani intraprendenti californiani, S Wozniak e S. Jobs, progettarono e costruirono in casa, con il microprocessore 6502 della MOS Technology, il primo personal computer, l’APPLE I, che ottenne uno strepitoso successo. Nel 1981, l’IBM entrò nel mercato dei personal con il modello PC-IM equipaggiato con microprocessore Intel 8088 a parallelismo a 8 bit, 64 Kb di RAM ed un floppy disk drive da 5 ¼ pollici. Sempre nel 1981, la Epson America annunciò il modello HX-20: fu il primo personal computer portatile con un peso inferiore a 1,5 Kg, 16 Kb di RAM e piccolo display a cristalli liquidi. Negli anni successivi il mercato del personal computer esplose. In Italia, nel 1984, la Olivetti entrò nel mercato dei PC con il modello M24 basato su microprocessore Intel 8086 a parallelismo a 16 bit. Nello stesso anno la Motorola annunciò il microprocessore 68020 a 32 bit e, l’anno dopo, 1985, l’Intel presentò il microprocessore 68386 (detto comunemente 386) sempre a 32 bit: entrambi destinati ad equipaggiare i personal computer professionali con una capacità elaborativa pari a quella dei mainframe di qualche anno prima. L’era del PENTIUM La storia del computer è in parte la storia dei microprocessori. Una volta iniziata la serie (286, 386 e 486) il seguito naturale per la società Intel sarebbe stato quello di chiamare l’ultimo tipo di microprocessore come 586. La scelta invece del management è stata quella di PENTIUM. In realtà il nome esatto dei microprocessori intel è i286, i386DX ecc.; tuttavia l’Ufficio Brevetti degli USA non riconosce tre cifre come marchio registrato e questo ha consentito alla 5 concorrenza di chiamare a loro volta i prodotti come 286, 386 quindi in maniera quasi uguale. Al fine di ovviare a questo inconveniente l’Intel ha deciso di registrare la quinta generazione con il nome latino di Pentium, nella speranza di eliminare la possibile "confusione" con i prodotti della concorrenza. Il Pentium ha consentito una evoluzione dell’architettura Intel con l’introduzione della tecnologia MMX. Ciò può essere paragonato per importanza al passaggio tra le CPU 286 e 386. In quell’occasione infatti vennero fatte le ultime aggiunte al set di istruzioni prima dell’MMX. Tutti i processori 386, 486, Pentium e Pentium Pro di fatto eseguono lo stesso set di istruzioni del 386. Le 57 istruzioni aggiuntive MMX diventano quindi a tutti gli effetti una parte integrante dell’architettura Intel. L’introduzione dell’MMX comporta la possibilità per la CPU di gestire parte delle funzioni svolte prima da schede add-on come quelle audio (per esempio per la sintesi di musica), di decodifica MPEG, riconoscimento e compressione della voce, video conferenza ecc. Serve comunque un ridotto hardware esterno, per esempio direttamente sulla motherboard, ma in tal modo possono però essere sfruttati anche alcuni elementi standard del PC (per esempio la memoria) per le funzioni multimediali, senza costose duplicazioni. Nel 1998 siamo arrivati alla seconda generazione del PENTIUM II con il Deschutes – nome preso in prestito da un fiume dell’Oregon, negli Usa. In realtà Deschutes rappresenta un nome in codice e comunemente si chiamerà sempre Pentium II. Ma le novità sono almeno 3: 1. la frequenza di funzionamento passa a 333 - 350 - 400 Mhz, con l’obiettivo di arrivare a 500 e 600 Mhz entro due anni; 2. ciò sarà possibile grazie alla ridotta dimensione dei componenti interni del microprocessore che passa da 0,35 a 0,25 micron (millesimi di millimetro); 3. varia infine la velocità di accesso alla memoria di sistema: normalmente il processore legge e scrive i dati della RAM a 66 Mhz (milioni di volte al secondo), mentre il nuovo Pentium II potrà farlo a 100 Mhz. Tutto ciò porta anche ad una variazione dell’elettronica di controllo della scheda madre (chipset) con un nuovo gruppo di chip 440bx che coordinano l’attività del processore e degli altri dispositivi. Ma il vero obiettivo è il passaggio all’architettura a 64 bit attraverso il processore chiamato in codice MERCED che disporrà di componenti con dimensione 0,18 micron, una frequenza di funzionamento di 1000 Mhz ed un accesso alla memoria di 133 Mhz. 6 IL PRINCIPIO DI FUNZIONAMENTO La CPU (Central Processing Unit) è il processore di sistema, il cervello che esegue tutti i calcoli e le operazioni. La CPU comunica con gli altri elementi del sistema attraverso il chipset, che coordina tutte le attività. CPU e chipset comunicano a loro volta con la RAM (memoria centrale), mentre la memoria cache funziona a metà della velocità della CPU. I Bus vengono usati come percorsi di comunicazione. Il codice binario Il termine ‘digitale’ rimanda all’inglese ‘binary digit’, numeri binari, ed ha a che fare con la possibilità di rappresentare informazione attraverso lunghe catene di 0 e 1. Un semaforo, ad es., parla un suo ‘linguaggio’, ci dice, a modo suo, quando dobbiamo fermarci e quando possiamo proseguire. Come rappresentare questo linguaggio attraverso i nostri ‘0’ e ‘1’? Il semaforo può essere verde, giallo o rosso, oppure può essere spento: abbiamo quattro possibilità, e sarebbero ancora di più se volessimo considerare, ad esempio, il giallo intermittente, o l’evenienza – decisamente pericolosa – di guasti che facciano accendere insieme la luce verde e quella rossa. Se ci limitiamo alle quattro alternative ‘verde’, ‘giallo’, ‘rosso’ e ‘spento’, per rappresentarle, potremo usare due caselle ciascuna delle quali può contenere solo 0 o 1. In termini tecnici, due ‘bit’. Possiamo pensare a un bit, infatti, come a una casella riempita da uno e uno solo dei due valori ‘0’ e ‘1’. In questo modo, un bit esprime una scelta binaria, una scelta fra due alternative. Come rappresentare gli stati del semaforo con l’aiuto di due bit? Semplice: la combinazione 1-1 potrebbe ad esempio rappresentare il semaforo verde, quella 1-0 il semaforo giallo, quella 0-1 il semaforo rosso, e quella 0-0 il semaforo spento. Come si fa a rappresentare un testo usando solo degli 0 e degli 1? 7 Lo strumento per risolvere il problema c’è, e si chiama codifica binaria dei caratteri. Quando scriviamo un testo, non facciamo altro che mettere uno dietro l’altro una serie di simboli, normalmente chiamati caratteri. I caratteri che compongono un testo scritto sono di vario genere: innanzitutto le lettere dell’alfabeto, che compongono le parole; poi i segni di interpunzione: la virgola, il punto, e così via; e infine le cifre. Come codificare questi caratteri? Da una parte abbiamo un insieme di molti simboli diversi, e dall’altra lo ‘0’ e l’1’ utilizzati dal computer. Ovviamente lo 0 e l’1 da soli non basterebbero a rappresentare tutti i simboli necessari per scrivere. Ma possiamo usare il ‘trucco’ del semaforo: se noi decidiamo di associare ad ogni carattere non una sola cifra binaria, ma una sequenza di cifre binarie, ecco che le possibilità di rappresentare caratteri aumenta. Supponiamo di usare una sequenza di otto cellette, otto bit, a ciascuna delle quali può essere dato il valore ‘0’ o ‘1’. Potremmo allora fare una tabella di associazioni di questo tipo: 00000001 corrisponde ad A 00000010 corrisponde a B 00000011 corrisponde a C 00000100 corrisponde a D Per lavorare su dei testi tutti i computer ricorrono a una tabella di associazioni di questo tipo. In termine tecnico viene chiamata tavola dei caratteri. La tavola più usata è basata proprio su otto cifre binarie,otto bit. Le possibili combinazioni di ‘0’ e ‘1’ nelle otto cellette a nostra disposizione sono otto alla seconda, ovvero 256: potremo allora rappresentare fino a 256 caratteri diversi. I costruttori di computer hanno deciso di accordarsi e di usare quanto più possibile la stessa tavola di caratteri. La più diffusa di queste tavole si chiama American Standard Code for Information Interchange. È questo il famoso codice ASCII. Grazie al suo impiego, carattere per carattere, e possibile trasformare un testo scritto in una lunga sequenza di 0 e di 1, pronta ad essere utilizzata dal computer. Viceversa, è possibile trasformare la sequenza di ‘0’ e di ‘1’ su cui lavora il computer in un testo da leggere sullo schermo, o da stampare. Cosa succede quando dal testo si passa a immagini e suoni? Partiamo da un’immagine a due colori, in bianco e nero. Si traccia sull’immagine una griglia, e si rappresentano con lo 0 tutti i punti ‘vuoti’ della griglia, e con l’1 tutti i punti pieni. Più fitte sono le maglie della griglia, maggiore sarà la risoluzione, e più fedele risulterà la rappresentazione. Se l’immagine anziché essere avere solo due colori ne ha di più? 8 Anche in questo caso tracciamo la nostra griglia, ma ogni singola celletta della griglia, o pixel, sarà rappresentato non da un singolo bit, da uno zero o da un uno, ma da più bit. Ad esempio, come abbiamo visto nel caso del codice ASCII, 8 bit ci danno 256 possibili combinazioni. Anziché a caratteri dell’alfabeto, potremo associare queste combinazioni a sfumature diverse di colori. Avremo così una immagine a 256 colori. E per i suoni? Un’onda sonora può essere rappresentata attraverso una funzione. E rappresentare attraverso bit, punto per punto, i valori di una funzione è compito relativamente facile. Nel suo libro ‘Essere digitali’ Nicholas Negroponte, uno dei fondatori del celebre Medialab del MIT, presenta il processo di progressiva conversione dell’informazione in formato digitale attraverso una metafora piuttosto efficace, quella del passaggio dagli atomi ai bit. Tutti concordano sul fatto che una biblioteca pubblica sia una buona cosa. È una cosa buona per la cultura, per la società. Una biblioteca pubblica funziona perché essa si basa su atomi: dovete portare i vostri atomi alla biblioteca per prendere un libro in prestito. Quando prendete il libro in prestito prendete solo un altro atomo, ma - e questo è così ovvio che non ci pensiamo mai - il guaio è che quando prendete in prestito un atomo non ci sono atomi rimanenti. Resta uno spazio vuoto. Voi portate il libro a casa, lo leggete in una settimana, lo riportate alla biblioteca. Magicamente qualcuno lo prende in prestito di nuovo, e lo riporta indietro dopo una settimana. Così 52 persone avranno letto il libro in un anno. Se invece la biblioteca pubblica è digitale non sarà necessario trasportare i miei atomi alla biblioteca. Quando prendete in prestito un bit, c’è sempre un altro bit che rimane. Così ora 20 milioni di persone possono prendere in prestito questo libro simultaneamente, senza muoversi di casa, giusto battendo alcuni tasti. I LINGUAGGI DI PROGRAMMAZIONE Linguaggio macchina È un insieme di istruzioni o codici binari, generalmente il codice ASCII, direttamente interpretabili dalla CPU, che si traducono in livelli di tensione ai capi del circuito integrato interessato. È un linguaggio definito a basso livello in quanto è orientato verso la macchina. Linguaggio Assembler È formato da istruzioni con codici mnemonici rapidamente traducibili in linguaggio macchina. Necessita di un programma detto assemblatore, in genere memorizzato nella ROM, che traduce automaticamente tali istruzioni simboliche in codice macchina per renderle eseguibili dal 9 computer. Anche l’assembler è un linguaggio a basso livello. Codici Compilati È un tipo di linguaggio orientato all’utente. Ad ogni istruzione in questo linguaggio corrispondono più istruzioni in linguaggio macchina o in Assembler. Affinché sia eseguibile dal computer un programma in linguaggio evoluto, deve essere tradotto in istruzioni in codice macchina. Tale compito è svolto da programmi traduttori che possono essere suddivisi in Interpreti e Compilatori. Gli interpreti traducono ogni istruzione del programma nel momento in cui deve essere eseguita e la traduzione si perde subito dopo l’esecuzione, ne segue che ogni istruzione è tradotta ogni qualvolta viene eseguita. I compilatori traducono una sola volta il programma scritto in linguaggio evoluto (detto sorgente) in un programma scritto in codice binario (detto oggetto) che viene conservato in questa forma nella memoria ed è quindi sempre pronto per essere utilizzato dalla macchina. TIPI DI COMPUTER E SISTEMI OPERATIVI PC-HARDWARE I monitor Le tecnologie alla base dei monitor sono due: CRT (Cathode Ray Tube) e LCD (Liquid Crystal Display) a cristalli liquidi. CRT Il tubo a raggi catodici è l’elemento che produce fisicamente l’immagine: contiene tre “cannoni” che sparano altrettanti flussi di elettroni su di una griglia di punti che vengono accesi o spenti. Ogni punto è costituito da tre fosfori: verde, rosso, blu, eccitabili da fasci di elettroni. Con combinazioni opportune di questi tre colori il punto corrispondente può assumere qualsiasi colore.Attualmente esistono tre tipi di CRT: Shadow Mask, Aperture Grille, Slot Mask LCD I monitor di questo tipo offrono una notevole luminosità e nitidezza in un design ultrapiatto. Purtroppo hanno ancora prezzi piuttosto proibitivi, fino a otto volte superiori a quelli dei tradizionali monitor. In uno schermo LCD uno strato sottile di materiale blocca o lascia passare la luce. Organizzando tale materiale, si possono accendere o spegnere i singoli punti dello schermo. 10 La dimensione dello schermo La dimensione dello schermo che si esprime misurando in pollici la dimensione della diagonale: 14”, 15”, 17”, 19”, 20”, 21”. Maggiore è la diagonale, maggiore è la superficie dello schermo. L’area utile, talvolta è leggermente inferiore in quanto i bordi possono essere parzialmente oscurati o inutilizzabili a causa della distorsione dell’immagine o da difetti visivi. Dimensione del pixel Indica la dimensione del punto minimo (pixel) che costituisce l’immagine. Se per lo schermo viene utilizzata la tecnologia Shadow mask è funzione del dot pitch, nella tecnologia Aperture Grille dello Stripe Pitch, nella tecnologia Slot Mask dello Slot Pich. Risoluzione del monitor Termine usato per esprimere la dimensione “logica” dello schermo, cioè il numero di punti che compongono l’immagine. Si indica come prodotto tra la larghezza e l’altezza, ad esempio 640x480 pixel, 800x600 pixel. Maggiore è la risoluzione utilizzata, maggiore è la quantità di informazioni e di elementi grafici visualizzabili. Alle risoluzioni più alte sono visibili maggiori dettagli, in quanto i punti che compongono le linee e i caratteri sono più piccoli. La risoluzione massima utilizzabile dipende dalla potenza della scheda grafica presente nel computer e dalle caratteristiche del monitor. Frequenza di refresh L’immagine che compare sul monitor, nonostante possa sembrare fissa, è il risultato della combinazione di migliaia di punti luminosi che lampeggiano in rapida sequenza da sinistra verso destra, dall’alto in basso. Quando tutte le linee orizzontali sono state accese si dice che è stata compiuta una “scansione verticale”. Il numero di scansioni effettuate in un secondo si dice “frequenza di refresh” e si esprime in Hz. L’immagine risulta tanto più confortevole quanto è maggiore il valore associato a tale frequenza. Il valore minimo da considerare è 70 Hz. Controlli digitali o di OSD I controlli digitali semplificano le operazioni di configurazione per far lavorare il monitor a risoluzioni diverse. I menu a video OSD guidano l’utente tra le regole per ottimizzare la visualizzazione delle immagini sul monitor. In alcuni casi permettono anche di regolare la convergenza o di personalizzare il bilanciamento tra i segnali dei tre colori primari (verde, rosso, blu). 11 La mancanza di convergenza Indica un cattivo allineamento dei fasci di elettroni che eccitano i fosfori rossi, verdi, blu questo fenomeno genera un alone colorato intorno agli oggetti visualizzati sul monitor. La luminosità È una misura standard della luce media emessa dal monitor. La variazione del colore e la variazione della luminosità Misurano l’uniformità del display, in pratica la variazione della luminosità e della vivacità dei colori nei diversi punti dello schermo. Una variazione minore dell’8% è eccellente una variazione maggiore del 20% è inaccettabile. Il cabinet Se focalizziamo il computer vero e proprio, ciò che vediamo dall’esterno si presenta come una scatola: cabinet (in inglese significa “mobiletto”) oppure chàssis e può essere principalmente di due tipi: desktop e tower. Il desktop si sviluppa in orizzontale, il tower si sviluppa in verticale. Sia il desktop che il tower possono essere di dimensioni inferiori a quelle usuali, in tal caso occupano meno spazio delle versioni standard, ma permettono di installare un numero inferiore di schede di espansione e di unità disco. Il disco rigido Il disco rigido (anche disco fisso) è un dispositivo interno al computer, contiene il sistema operativo, i programmi e i dati; è usato per l’archiviazione permanente dei dati che rimangono memorizzati, anche se il computer è spento; può essere sia letto che scritto. La capacità dell’Hard disk è espressa in Megabyte (milioni di byte o caratteri) o in Gygabyte (miliardi di byte o caratteri). Il disco fisso è costituito dai seguenti componenti elementari: da alcuni dischi rigidi chiamati piatti; da un albero centrale che fa si che i piatti su di esso montati ruotino tutti alla stessa velocità, da testine di lettura-scrittura (almeno una per ciascuna superficie del piatto) e da circuiti elettronici integrati che permettono al computer di muovere le testine di lettura-scrittura sui piatti in modo tale da scrivere e leggere i dati. I piatti, sono solitamente fatti di metallo, con entrambi i lati ricoperti da un sottile strato di ossido di ferro che garantisce ottime proprietà magnetiche. I dati sono registrati dal computer sul disco fisso come una serie di bit, ognuno dei quali viene archiviato magnetizzando (positivamente o negativamente) lo strato sottile di ossido di metallo che ricopre il piatto dei disco. Quando il disco fisso riceve le informazioni da memorizzare, usa le testine di lettura-scrittura per "scrivere" magneticamente i bit su uno o più piatti. Quando invece il 12 sistema richiede dati già registrati sul disco, le testine si muovono sulla superficie dei vari piatti interpretando la loro polarizzazione . La formattazione È necessario organizzare il disco in modo che sia possibile individuare una particolare sequenza. La più elementare forma di organizzazione del disco fisso è chiamata formattazione. Esistono due tipi di formattazione: fisica e logica. La formattazione fisica (detta anche a basso livello) deve sempre precedere la formattazione logica. La formattazione fisica è normalmente eseguita dal produttore del disco. Questa operazione divide i piatti in vari elementi: tracce, settori e cilindri, i quali definiscono il modo in cui i dati sono fisicamente registrati e letti dal disco fisso. Le tracce hanno traiettorie circolari concentriche, e sono scritte su ogni lato del piatto, sono identificate da un numero compreso tra zero, per la prima, fino al limite superiore proprio del disco. Il cilindro è l’insieme di tracce di tutti i piatti posizionate alla medesima distanza dal centro e viste in verticale. Ciascuna traccia è divisa in aree dette settori, usata per archiviare le informazioni. In ciascun settore sono generalmente contenuti 512 byte di dati. Può succedere che dopo che il disco è stato formattato fisicamente alcune proprietà magnetiche della superficie dei vari piatti si deteriorino, quindi tali settori diventano illeggibili e classificati come "bad sectors". Gli attuali dischi sono in grado di contrassegnare i settori danneggiati in modo che non siano più utilizzati. 13 Alla formattazione fisica si fa seguire la formattazione logica che si effettua con apposite utility presenti nel sistema operativo. Tale formattazione dispone il file system che permette al sistema operativo di utilizzare lo spazio presente su disco per archiviare e richiamare i file. Le partizioni È possibile effettuare delle partizioni, sullo stesso disco, utilizzando il comando fdisk da DOS. Ci sono due tipi di partizione: “primaria” ed “estesa”. Sullo stesso disco si possono avere fino ad un massimo di 4 partizioni, ma solo una di queste può essere estesa. La partizione primaria Una partizione primaria può contenere un qualsiasi sistema operativo, dei dati e applicazioni e sarà formattata logicamente in modo da utilizzare il file system del sistema operativo che sarà installato su di essa. Il limite delle partizioni primarie multiple è che solo una di esse può essere “attiva”; pertanto i dati delle altre partizioni primarie non sono accessibili, cioè le informazioni che sono contenute in una partizione primaria sono accessibili solo dal sistema operativo installato in quella partizione. Le partizioni primarie multiple sono necessarie se si vogliono installare sullo stesso disco fisso sistemi operativi che richiedono che la partizione su cui sono installati sia primaria ad esempio Windows 3.XX o Windows 95. In tal caso per attivare una particolare partizione primaria in modo da utilizzare il sistema operativo in essa installato si devono utilizzare particolari programmi detti “boot manager” cioè “gestori di avvio”. Le partizioni estese Le partizioni estese create per ovviare al limite della partizione primaria, possono contenere un numero illimitato di unità logiche, ciascuna unità logica in cui è stata suddivisa la partizione estesa appare come un volume distinto del disco e verrà contraddistinta con una differente lettera (ad es.:E, F,G, H). Le unità logiche esistono solo all’interno delle partizioni estese e in esse possono essere installati solo sistemi operativi in grado di effettuare il boot anche da partizioni logiche (ad esempio Windows NT,OS/2, Linux). Come sono attribuite le lettere alle varie unità logiche Durante l’avvio del computer il sistema operativo assegna a ciascun disco o drive una lettera dell’alfabeto. Ai floppy spettano le lettere A e B, la lettera C è attribuita alla partizione primaria attiva sul primo disco fisso, la lettera D alla prima partizione primaria rilevata sull’eventuale secondo disco fisso. 14 Se ci fossero altri dischi fissi in successione, sarebbero assegnate le lettere E, F, G, ecc ad ogni prima partizione primaria su ciascun disco fisso. Dopo le partizioni primarie di tutti i dischi si passa alle partizioni estese riconosciute dal file system del sistema operativo utilizzato. Si inizia attribuendo le lettere alle partizioni del primo disco e si procede in ordine con i successivi dischi. Ovviamente partizioni create con sistemi operativi differenti da quello di avvio non vengono considerate. Infine sono assegnate le lettere ad eventuali dischi removibili o ai drive di dischi ottici. File system Il file system è la parte del Sistema Operativo che si occupa della gestione dei file. Le tre funzioni principali che svolge sono: 1. distinguere lo spazio libero da quello utilizzato 2. mantenere la struttura delle directory e i nomi dei file 3. tenere traccia dei settori in cui le varie porzioni di ogni file sono fisicamente allocate. I file system più comuni sono: FAT (File Allocation Table) in DOS, Windows 3.xx, Windows95 FAT 32 in Windows95 OSR-2 NTFS (New Technology File System) in WindowsNT 3.5 o 4.0 FAT (File Allocation Table) La FAT tiene traccia della posizione fisica occupata da un file su disco e dei cluster occupati dal file. È possibile raggruppare i file in directory e sottodirectory. La directory di primo livello si chiama radice ed è indicata con il simbolo “¥” ed è quella visualizzata al caricamento del sistema operativo. Quando si crea un file o una directory le informazioni che li riguardano sono memorizzate nella radice sotto forma di directory d’ingresso, che contiene le informazioni che riguardano il nome del file, le dimensioni e la data e l’ora dell’ultima modifica, gli attributi (archivio , sola lettura, nascosto) e il cluster d’inizio. FAT 32 (File Allocation Table) È il file system integrato nell’ultima versione di Windows95. I volumi con questo file system non sono riconosciuti dal DOS, da Windows3.xx, da WindowsNT o dalla prima versione di Windows95. È per questo motivo che per passare al nuovo sistema avrebbe dovuto formattare il disco perdendo così tutti i dati in esso contenuti. Ora esiste un programma “Partition Magic” che consente la conversione da FAT 16 a FAT 32., conservando integralmente i dati. La FAT permette di gestire dischi con dimensioni fino a 2 terabyte, vale a dire 2000 GByte). Inoltre usa cluster di 4 Kbyte in volumi fino a 8 GByte. La directory radice può avere qualunque 15 dimensione e essere allocata ovunque. NTFS È il sistema eslusivo di WindowsNT, ed è controindicato su dischi di dimensione inferiore ai 400Mbyte perché usa molto spazio per le strutture interne relative alla gestione dei dati. Il cuore del sistema è MFT (Master File Table) il sistema, per limitare al massimo il rischio di perdita di file, conserva copie multiple di porzioni critiche della MFT. Inoltre la dimensione dei cluster non dipende dalle dimensioni del volume nel quale sono contenuti. Il file system NTFS ofre la funzione hot fixing che rileva e marchia automaticamente tutti i settori danneggiati in modo che non possano essere utilizzati erroneamente. Lettore di CD-ROM Il CD-ROM è caratterizzato da una velocità di lettura, ossia dalla quantità di dati che il dispositivo è in grado di trasferire nell’unità di tempo (sec), prendendo come riferimento il lettore di CD-AUDIO a cui viene attribuita la velocità 1x (in un secondo trasferisce 150 Kbyte di dati). Con la sigla 24x si indica un lettore che sia in grado di trasferire una quantità di dati 24 volte superiore a quella di un CD-AUDIO (vale a dire circa 3600 Kbyte al secondo). Nei lettori CD-ROM con interfaccia IDE il compito del trasferimento dei dati è affidato alla CPU che durante tale operazione non è in grado di compiere null’altro. Nel caso di lettori con interfaccia SCSI c’è un chip apposito che si fa carico del trasferimento dati, il che permette di avere dei notevoli vantaggi: la CPU è alleggerita di buona parte del carico di lavoro inoltre viene assicurato un cospicuo trasferimento di dati. Per aumentare la velocità di trasferimento dei dati si è passati dalla tecnologia CLV alla CAV (Constant Angular Velocity) che prevede che sia costante l’angolo percorso nell’unità di tempo, il che comporta una diversa velocità di rotazione del CD-ROM nella lettura di dati appartenenti a tracce ottiche situate nella parte centrale del CD-ROM in quanto sensibilmente più corte di quelle situate nella parte esterna. All’inizio con questa tecnologia si riusciva ad avere una velocità di lettura sul CD-ROM fortemente differente, all’esterno infatti si raggiungevano velocità 16x all’interno si scendeva sino a 8x. Con l’evoluzione della tecnologia si è riusciti ad omogeneizzare il valore di trasferimento dei dati, pertanto è costante la velocità su tutta la superficie del CD-ROM. Lettore di CD-AUDIO Un lettore CD-AUDIO basa il suo funzionamento sulla tecnologia CLV (Constant Linear Velocity) che fa scorrere sotto la testina di lettura una lunghezza prefissata di traccia ottica. I dati sono suddivisi in settori uguali, ciascuno con la dimensione di 2.048 byte. 16 Un lettore CD-AUDIO impiega 1/75 di secondo per leggere un settore per cui in un secondo sono letti 150 Kbyte di dati. Con un lettore di CD-Audio non è possibile leggere i CD-ROM, mentre un lettore di CD-ROM è in grado di leggere perfettamente i CD-AUDIO. Lettore di DVD-ROM I drive DVD-Rom di prima generazione DVD-ROM 1x sono in grado di raggiungere un data rate pari al massimo a 1,3Mbyte/sec, velocità che corrisponde a quella di un lettore CD-ROM 8x. I drive DVD-ROM di seconda generazione DVD-ROM 2x raddoppiano la velocità di trasferimento arrivando sino a 2,6-2,7 Mbyte / sec, pari a quella di un CD-ROM 20x. I drive si collegano al computer mediante un’interfaccia che nel caso si tratti di dispositivi interni può essere sia di tipo IDE-ATAPI che Scsi nel caso di dispositivi esterni può essere solo di tipo SCSI. Lettore di DVD-RW È un drive che usa una tecnologia sviluppata da Sony e Philips non compatibile con quella utilizzata per il DVD-RAM, ma compatibile con quella dei CD-RW. Lettore di DVD-RAM È un drive, attualmente con interfaccia SCSI (entro breve anche EIDE), equivalente ad un lettore di DVD-ROM 2X (in grado di raggiungere un data rate di 2,6 Mb al secondo) o un lettore CD-ROM 8X (con un data rate di 1,2 Mb al secondo), con in più la possibilità di scrivere in modalità DVD-RAM 1X (1,38 Mb al secondo). Lettore di DVD-VIDEO Attualmente per leggere i DVD-Video è necessario disporre un drive apposito e di una scheda, da inserire nel computer, che ha la funzione di gestire il video Mpeg2. Successivamente la funzione di decompressione dei filmati verrà delegata al processore, o all’acceleratore grafico o ad un software adeguato. Per evitare la circolazione incontrollata dei film su DVD, le case produttrici hanno suddiviso il pianeta in 6 aree geografiche. I DVD-Video sono pertanto realizzati in versioni localizzate, in modo da impedire che, un titolo destinato alla fascia 1 sia letto in un paese appartenente ad un’altra fascia. Il controllo della fascia di appartenenza viene svolto dal software di gestione della scheda che accompagna il lettore DVD per Pc. La maggior parte dei kit per Pc oggi in commercio può essere configurata un numero fisso di volte, dopodiché si bloccano; mentre i lettori per il televisore vengono localizzati direttamente in fabbrica 17 Floppy ll floppy disk, da 1.44 Mb è ancora un dispositivo molto diffuso per il trasferimento di file di piccole dimensioni, e per l’installazione di alcuni software, un lettore di floppy disk è pertanto indispensabile. Sono dischetti removibili che possono essere sia letti che scritti. La loro capacità è espressa in Megabyte (milioni di byte o caratteri). In questi dispositivi l’area per la lettura e la scrittura è ricoperta da una placca metallica che slitta verso sinistra quando il floppy disk è inserito nel drive, lasciando scoperta la superficie di registrazione. È possibile proteggere il disco da scrittura facendo scorrere il cursore che si trova sul retro del dischetto. Se la finestra è aperta il dischetto è protetto da scrittura, per poter inserire i dati la finestra deve essere chiusa. La scheda grafica La scheda grafica e il monitor mettono in forma visiva tutto ciò che è elaborato dal computer. È possibile acquistare schede grafiche con interfaccia AGP invece della tradizionale PCI. Uno dei vantaggi per ora solo teorici di questo standard è la possibilità di utilizzare la memoria RAM per eseguire i calcoli necessari a generare le immagini a 3D ciò che viene chiamato DIME (Direct Memory Execute, esecuzione diretta in memoria). Inoltre l’AGP fornendo un percorso di comunicazione riservato tra scheda grafica e processore, libera una certa quantità di risorse che possono essere dedicate alle altre periferiche PCI. Queste potenzialità saranno effettivamente utilizzabili con Windows 98 attualmente per Windows 95 sono disponibili alcuni driver. (Software di gestione di una periferica. Serve alle applicazioni e al sistema operativo per poter usare in modo corretto ogni dispositivo.) La dimensione del quadro generato dalla scheda grafica è detta risoluzione e si esprime indicando il numero di punti in altezza e in larghezza (640x480, 800x600, 1024x768 ). La dimensione fisica dei monitor si esprime indicando la lunghezza in pollici della diagonale dello schermo (15, 17, 19, 21); maggiore è la dimensione dei monitor, maggiori sono le risoluzioni utilizzabili. La frequenza di refresh si esprime in Hz e indica il numero di volte che l’immagine generata sullo schermo viene aggiornata, disegnandone le varie linee una dopo l’altra in senso verticale. La potenza della scheda grafica influisce sulle prestazioni generali del sistema e dipende dal tipo di processore grafico e di memoria grafica utilizzati: lo standard è la tradizionale DRAM (Dynamic RAM la meno veloce), poi ci sono le RAM EDO (Extended Data Output), le SDRAM (Synchronous DRAM), le SGRAM (Synchronous Graphics RAM), le WRAM (Window RAM) e le VRAM (Video RAM le più veloci ). Ogni scheda grafica funziona con un particolare tipo di memoria video e l’unico intervento concesso all’utente è l’eventuale espansione, da eseguire con componenti di memoria dello stesso 18 tipo. I processori più recenti, oltre alle tradizionali funzioni grafiche, sono progettati per accelerare le applicazioni e i giochi con grafica tridimensionale. Scheda audio La scheda audio multimediale oltre a rendere possibile la registrazione e la riproduzione di segnali audio può essere utilizzata come interfaccia di collegamento per dispositivi come il joystick, per collegare dispositivi MIDI come tastiere e sintetizzatori o infine come strumento per la produzione di audio semi professionale. Affinché la scheda audio funzioni correttamente è indispensabile installare sul computer i suoi driver che sono forniti dalla casa produttrice della scheda stessa. La memoria di una scheda audio serve per contenere i campioni audio, ovviamente maggiore è la memoria maggiore sarà la quantità di campioni audio contenuti e la riproduzione dei suoni risulterà più fluida e naturale. Per ottenere un soddisfacente grado di fedeltà del suono riprodotto è indispensabile utilizzare dei diffusori adeguati. e’ meglio che le casse abbiano due altoparlanti: uno specializzato per la gamma bassa (woofer) e uno specializzato per la gamma alta (tweeter). In tal caso il suono risulterà più chiaro sia in gamma media (la più importante per la naturalezza del suono) sia in gamma alta ( serve ad esempio per distinguere il suono di un violino da quello di una viola). Installazione della scheda audio È necessario aprire il computer e posizionare in uno dei connettori liberi (slot) la scheda. Se la scheda è di tipo Plug and Play non è necessario fare alcuna altra operazione se non avviare il computer. Sarà il BIOS del computer, se si tratta di un modello che supporta il Plug and Play, o il sistema operativo a decidere quali risorse attribuire alla scheda. L’unico svantaggio in questo caso è che se si dovessero verificare dei conflitti potrebbe risultare abbastanza difficoltoso risolverli. Se si usa il sistema operativo Windows95 è necessario disabilitare la casella di controllo “usa impostazioni automatiche” a cui si accede da Pannello di controllo - Sistema - Gestione periferiche cliccando sul pulsante Proprietà. Dopo aver disattivato questa casella si deve riavviare il computer, tornare in Gestione periferiche e attribuire i valori consigliati nel libretto di istruzioni della scheda. Se la scheda non è di tipo Plug and Play si deve agire sui ponticelli (jump) situati sulla scheda stessa. Modificare la combinazione di questi elementi permette di indicare l’IRQ (livello di interruzione da impiegare) solitamente posto uguale a 5 e per le schede audio di tipo fulplex, schede che possono riprodurre e registrare contemporaneamente segnali audio, anche il Dma (impostazioni per l’accesso diretto alla memoria), solitamente Dma basso sul valore 1 e Dma alto sul valore 5. 19 Acquisizione suoni wave 1. La scheda audio riceve da microfoni un suono nella sua forma originale, in pratica come segnale analogico, vale a dire un’onda sonora con frequenza ed intensità che variano continuamente. La scheda può gestire più di un segnale alla volta, consentendo la registrazione di suoni stereo. 2. I segnali acustici sono elaborati da un chip della scheda, l’ Analog to Digital Converter (ADC), convertitore da analogico a digitale, che trasforma i segnali analogici continui in dati trattabili dal computer. 3. In un chip di memoria ROM (Read Only Memory) sono contenute le istruzioni per gestire i segnali digitali. Le schede più recenti hanno sostituito le memorie ROM con memorie EPROM che sono aggiornabili via software con nuove funzioni. 4. L’ADC invia informazioni digitali al Digital Signal Processor, (processore di segnali digitali) che allegerisce la CPU della maggior parte delle operazioni di gestione del suono. Il DSP riceve le istruzioni su come trattare i dati dalla memoria ROM. 5. Il DSP invia i dati compressi alla CPU che a sua volta li memorizza su disco fisso sotto forma di file .wav (abbreviazione di Wave “onda”) Acquisizione suoni MIDI 1. Le istruzioni MIDI dicono al DSP (Digital Signal Processor), quali strumenti suonare e come usarli. 2. Per generare i suoni la scheda può usare la tecnica wave-table (tabella d’onda) oppure la sintesi FM. Nel primo caso i suoni sono generati usando alcuni campioni sonori digitalizzati da strumenti reali e conservati in un’apposita memoria. Per esempio, se le istruzioni MIDI richiedono un Mi bemolle suonato da una tromba, il DSP cerca la nota corrispondente per lo strumento desiderato: se il campione sonoro è presente, questo viene riprodotto, altrimenti si può manipolare un campione simile, magari innalzandolo di un semitono o di una intera ottava. Nel secondo caso, invece, interviene un processore che imita il comportamento degli strumenti reali per mezzo di formule matematiche. In questo modo si possono imitare i suoni degli strumenti veri, ma i risultati sono solitamente meno realistici di quelli ottenuti con la tecnica wave-table. La scheda madre La scheda madre (in inglese motherboard) è l’elemento principale dei computer; su di essa vengono installati tutti gli altri componenti, ad esempio la scheda grafica, il processore, la memoria. Gli alloggiamenti delle schede di espansione si chiamano SLOT (connettori), e possono essere di tipo: 20 1. ISA (a 16 bit, solitamente di colore nero) 2. PCI (a 32 bit, solitamente di colore bianco per le schede più moderne e veloci 3. AGP (Accelerated Graphics Port) è una nuova architettura atta a migliorare le prestazioni grafiche 3D dei PC basati su processore Pentium II. Usa anche un bus ad alta velocità, separato dal tradizionale PCI , dedicato solo alla scheda grafica; permette inoltre di utilizzare la RAM come memoria grafica per le applicazioni 3D. Sulla scheda madre è presente un gruppo di elementi (detto chipset) che coordina il funzionamento di tutti gli altri componenti. In un particolare chip di memoria, detto Flash Rom, è contenuto uno speciale programma Bios (Basic lnput Output System) che gestisce il funzionamento dei computer alla sua accensione, cioè prima che prendano il controllo il sistema operativo e i programmi utente. Le schede madri più recenti integrano anche l’elettronica di controllo e gestione dei dischi fissi e dei CD-ROM, mentre in passato si dovevano utilizzare schede aggiuntive. Su alcune schede madri sono integrate dai produttori anche i chip e la memoria dedicati alle funzioni audio e video. Scheda modem Modem è l’acronimo di MOdulatore DEModulatore, cioè la funzione che trasforma (modulandoli) i dati dalla forma digitale del computer alla forma analogica affinché siano trasportabili da una linea pensata per la trasmissione della voce. Serve per trasmettere dati attraverso le linee telefoniche, è indispensabile se si vuole accedere ad INTERNET o se si desidera trasmettere un fax via computer. Quale modem utilizzare per l’ISDN Su ISDN il modem non è più necessario ed i dispositivi che si utilizzano per il collegamento del computer sono generalmente di due tipi: 1. Il terminal adapter , una scatola esterna, simile ad un modem, collegata al PC con una porta seriale o parallela.Questi dispositivi sono in genere compatibili con tutti i tipi di computer dotati di porte seriali ma sono limitati nella velocità da questo tipo di collegamento. 2. La scheda interna, da installare nel PC, generalmente di tipo differente a seconda che il computer sia Macintosh o IBM compatibile. È generalmente più veloce ed economica anche se meno flessibile e più difficile da installare 21 La scheda SCSI La scheda è in genere impiegata su computer professionali o con i server di rete. La sua velocità di trasmissione dei dati arriva fino a 40 Mbyte al secondo nella variante UltraWide. I controller SCSI possono gestire sino a 7 unità diverse sia interne che esterne, tra cui dischi fissi, lettori di CD-Rom, masterizzatori , Scanner Stampanti o altro. Alcuni modelli definiti Wide permettono di controllare fino a 15 periferiche. Tutte le periferiche SCSI si collegano al controller tramite un solo canale. Il cavo utilizzato pertanto è unico dotato di 8 o 16 connettori. Non esiste distinzione tra Master o Slave come nel caso IDE, ma ogni unità collegata è contraddistinta in modo univoco da un numero compreso tra 0 e 15 detto identificatore. Per riconoscere il tipo di controller installato basta osservare il cavo di collegamento del disco fisso che appare come una piattina larga e sottile , generalmente di colore chiaro. Le piattine SCSI sono composte da 50 fili sottili affiancati, quelle di tipo IDE o EIDE sono invece costituite da 40 fili affiancati. Interfacce Le interfacce sono le porte di comunicazione tra il computer e le periferiche. La stampante si collega alla porta parallela, mentre il mouse alla porta seriale (Com 1 o Com2) sia al connettore Ps2 o USB. La porta parallela si differenzia dalla seriale perché i dati vengono trasmessi a gruppi invece che uno alla volta. Oltre alla porta parallela standard esistono altri tipi più efficienti: EPP (Enhanced Parallel Port) bidirezionale ECP (Enhanced Capabilities Port) bidirezionale con accesso diretto alla memoria e pertanto più veloce. La tecnologia emergente USB (Universal Serial Bus) utilizza un metodo di connessione seriale ad alta velocità e permette di connettere fino a 127 periferiche a cascata. La tastiera La tastiera è uno dei dispositivi di input più diffuso, ne esistono di vari tipi : - tradizionale (il cui costo non supera le 50000 lire) - multifunzione (che integrano qualche altro dispositivo come il mouse lo scanner o lettori di codici a barre, schede magnetiche o microchip) - ergonomiche (che hanno una conformazione particolare studiata per ridurre l’affaticamento da uso prolungato) - senza fili 22 Le principali caratteristiche da valutare per l’acquisto di una tastiera sono: la presenza di un ripiano, integrato o removibile, per poggiare i polsi, la presenza di piedini posteriori per regolare l’inclinazione della tastiera, il tocco dei tasti, la profondità della loro corsa, e la distanza che li separa, la compatibilità del connettore con la porta del computer (Ps/2,DIN, seriale) o l’eventuale disponibilità di un adattatore. La tastiera standard è costituita da 101 tasti, ultimamente sono comparse sul mercato tastiere specifiche per Windows95 con 104 tasti. Due dei tasti aggiuntivi servono per aprire il menu di Avvio di Windows95 e il terzo per richiamare la finestra delle proprietà degli oggetti, richiamabile anche con il tasto destro del mouse. Alcune nuove tastiere hanno la barra spaziatrice divisa in due parti tra le quali è inserito un nuovo tasto Backspace. Le tastiere possono avere: - tasti con contatti meccanici - tasti con contatti in plastica - tasti a “membrana” Modalità di funzionamento della tastiera 1. La pressione di un tasto provoca la chiusura del relativo contatto e il conseguente passaggio di corrente nel circuito associato a quel tasto. 2. Il microprocessore inserito nella tastiera rileva i tasti premuti o rilasciati e genera il codice di scansione (scan code) che corrisponde al carattere utilizzato. 3. Il numero viene conservato in una memoria locale (buffer) da cui viene poi trasferito al computer. 4. A questo punto il BIOS (Basic System Input Output = Sistema di base per l’input l’output) comunica alla tastiera che può liberare il buffer per altri dati 5. Se il codice letto corrisponde ad uno dei tasti commutatori (Shift Tab Ctrl …) viene conservato in una zona dedicata della memoria, altrimenti viene convertito nel corrispondente codice ASCII. Il codice ASCII dipende anche dallo stato dei tasti commutatori (ad esempio per le lettere maiuscole). 6. Determinato il codice corretto questo viene conservato in una memoria da dove può essere prelevato dal S.O. o dalle applicazioni. Il mouse Il mouse rende più amichevole l’uso del computer. Le caratteristiche più importanti da prendere in considerazione per scegliere un mouse sono: la sensibilità, il comfort, la durata nel tempo, la risoluzione che non deve essere inferiore ai 400 dpi. Le tecnologie utilizzate per rilevare il movimento della pallina sono tre: tecnologia ottica, indubbiamente la migliore, optomeccanica e meccanica. Esistono dei mouse che oltre al pulsante destro e sinistro dispongono di un ulteriore elemento di 23 controllo che ad esempio permette di scorrere un documento, di modificare il fattore di ingrandimento o che grazie ad un apposito software permette di visualizzare un menù con 8 diversi comandi per la gestione delle finestre. Se si vuole utilizzare un modello senza fili, è bene ricordare che la versione radio funzionano anche con ostacoli tra il dispositivo e il ricevitore, diversamente dai modelli infrarossi. Il trackball Sembra un mouse a pancia in su, per spostare il puntatore sullo schermo è necessario muovere la pallina, posta sulla parte superiore del dispositivo, con le dita. L’uso di questo dispositivo è molto diffuso, nella grafica esistono anche modelli a raggi infrarossi. I Touch-pad Sono piccoli pannelli sensibili al tocco del polpastrello. Il trascinamento del puntatore sullo schermo è generato dallo spostamento del polpastrello sulla superficie del touch-pad, mentre il clic del mouse si emula con un colpetto del dito. IL SISTEMA OPERATIVO Il sistema operativo è uno speciale programma che gestisce il funzionamento generale dei computer e coordina l’esecuzione delle applicazioni. Il primo S.O. destinato al mondo dei personal computer è stato il DOS (Disk Operating System). Successivamente sono state introdotte varie versioni di Windows 3.X caratterizzate da un’interfaccia grafica più amichevole. Oggi ci sono Windows 95 e Windows NT 4.0, uguali nell’aspetto ma profondamente diversi nell’architettura interna. Windows 95 è destinato a un utilizzo personale con un pieno supporto per le periferiche multimediali ed è dotato delle funzioni di configurazione automatica Plug and Play. Windows NT dispone di particolari meccanismi per la protezione dagli errori richiesti dalle applicazioni professionali e offre speciali funzioni per la condivisione in rete di dischi e stampanti. Entrambi, a differenza dei vecchio DOS, sono di tipo multitasking, cioè permettono di eseguire contemporaneamente più di un programma. Il sistema operativo Windows 95 coniuga facilità d’uso, potenza di elaborazione a 32-bit e nuove tecnologie Internet e consente agli utenti di sfruttare tutte le potenzialità del loro PC. È una piattaforma molto versatile, con cui è possibile accedere facilmente a Internet e scambiare messaggi di posta elettronica, lavorare con le nuove e potenti applicazioni appositamente sviluppate per Windows 95 e anche giocare con la maggior parte dei videogame dell’ultima generazione, altamente realistici e a tre dimensioni. Una delle caratteristiche di successo di Windows 95 è la tecnologia Plug and Play, con cui è possibile installare qualsiasi periferica oggi ormai fondamentale (come un modem o un’unità 24 CD-ROM) senza difficoltà o perdita di tempo mediante la configurazione automatica del sistema. Windows 95 è stato pensato, fra l’altro, per ottimizzare e semplificare la connessione al World Wide Web. Il protocollo TCP/IP nativo consente infatti agli utenti di accedere direttamente a Internet, senza alcuna complicazione. Windows NT Workstation 4.0 combina invece l’intuitività dell’interfaccia grafica di Windows 95 con la sicurezza e rappresenta il client ideale per un utilizzo professionale. L’interfaccia con pulsante di Avvio, barra delle applicazioni e tutte le altre funzioni di Windows 95 permette agli utenti di lavorare indifferentemente su macchine che operano nei due diversi ambienti. Windows NT Workstation consente anche un immediato accesso dal desktop al Web per utilizzare reti Intranet, grazie all’integrazione con il browser Internet Explorer, al supporto TCP/IP, a Peer Web Services - dedicato alla pubblicazione individuale di pagine Web nell’ambito delle Intranet aziendali - e al protocollo Point-to-Point Tunneling Protocol (PPTP). Con Windows NT Workstation 4.0 è garantito un maggior controllo sul desktop grazie a strumenti di gestione quali Profili Utente, che permette agli utenti di spostarsi tra i PC della rete o di avere più utenti su un unico PC ciascuno sempre con la propria confi- gurazione, e System Policies, che consente il controllo degli accessi alla rete e alle risorse del desktop con diversi livelli di sicurezza. Gestione Risorse di Windows NT Workstation, invece, consente al sistema operativo di accedere rapidamente a file, dischi locali e di rete mettendo a disposizione dell’utente una visione gerarchica ad albero di tutti i drive e le cartelle presenti sul computer, inclusi i drive di rete, in modo da facilitare al massimo la gestione delle informazioni. MACHINTOSH Si tratta di una linea di computer prodotta da APPLE COMPUTER a partire dal 1984. La novità fu grande: per prima APPLE ha introdotto con il MAC, come è familiarmente chiamato, le interfacce grafiche utente (in parallelo si pensi al passaggio dal nero MS-DOS alle finestre di Windows), il concetto delle periferiche plug and play (in parallelo accolto nel mondo IBM compatibile con Windows 95), il supporto SCSI per l’interfaccia di sistema per piccoli computer, la possibilità incorporata di collegamento in una rete locale. Tuttavia la diffusione del Mac è stata piuttosto limitata: si può indicare un rapporto credibile 1/10 rispetto ai pc MS-DOS compatibili. Del resto è una situazione in parte da addebitare alla politica aziendale della stessa Apple per il fatto che, fino al 1995, non ha fornito le specifiche della sua tecnologia ai produttori di cloni. Questi ultimi si sono per conseguenza prevalentemente concentrati sulla produzione di Hardware e software per il mercato pc MS.DOS compatibile. 25 LA TECNOLOGIA G3 Alla fine del 1997 è stato posto sul mercato dalla APPLE la innovativa serie basata sul nuovo processore Power Macintosh G3 con velocità a 233, 266 o 300 MHz, aumentando significativamente sia le prestazioni che la flessibilità, per migliorare la produttività e incoraggiare la creatività. Integrando un nuovo approccio alla memoria cache, i modelli Power Macintosh G3 possono fornire prestazioni quasi doppie rispetto ai sistemi basati sui precedenti processori PowerPC 603e. I sistemi Power Macintosh G3 includono le più recenti funzionalità in termini di comunicazione e multimedia: audio di alta qualità e ingresso/uscita video, un lettore CD-ROM a velocità 24x (massimo), connessioni di rete Ethernet e uno slot di comunicazione per aggiungere un modem; inoltre ci sono 3 slot PCI da 12 pollici di espansione (ma il numero degli slot varia a seconda della configurazione) e un lettore ZIP per un veloce trasferimento di documenti e copie di riserva. Infine, come complemento a tutte le innovazioni hardware, questi computer eseguono Mac OS X, il più recente software di sistema Apple, con un nuovo look e nuove funzionalità. Il sistema operativo Mac OS X consente il multitasking, un’interfaccia utente innovativa che semplifica e velocizza la manipolazione di documenti e cartelle, un accesso e pubblicazione in Internet facile e divertente facilmente adattabile al livello di esperienza degli utenti. I MAC La proposta per le scuole da MAC viene con iMAC, un POWERPC G3 a 233 Mhz pensato per la scuola. Dispone di 512K di memoria cache di secondo livello, 32MB di SDRAM (espandibile a 128MB),di 4GB IDE di hard disk drive, Mac OS 8.1, 212Mbps con porte Universal Serial Bus (USB), una porta a 4Mbps con tecnologia infrarosso (IrDA), tastiera e mouse. È inoltre compreso un 24x CD-ROM drive, un monitor 15 pollici, una scheda di rete 10/100BASE-T Ethernet , un modem 33Kbps. Dalle prove BENCHMARK risulta una velocità maggiore rispetto ad un Pentium 400 Mhz. Il computer nasce pensato per la rete (INTRANET o INTERNET), il FD e’ collegabile esternamente alla porta USB e può disporre di una capacità sino a 120 MB. Nella sua prima versione non dispone di porta SCSI e di slot di espansione. IL SISTEMA OPERATIVO Il S.O. Apple è oggi arrivato alla versione X (10) Proverbiale è la facilità di utilizzo riconosciuta universalmente. Mac OS X assicura un eccellente grado di compatibilità con la maggior parte delle applicazioni, delle estensioni e dei driver hardware di generazioni precedenti. Consente di condividere documenti con gli utenti di Windows 95, Windows 3.1 e MS-DOS. 26 In questo senso l’impegno di garantire la compatibilità multipiattaforma è assoluto. Il sistema offre inoltre il supporto delle unità Iomega ZIP/JAZ e il supporto per la stampa TCP/IP e in remoto, grazie al nuovo driver LaserWriter. Si avvale inoltre dell’altissimo grado di perfezionamento raggiunto dalle tecnologie QuickTime, per consentire agli utenti di sperimentare le realizzazioni multimediali più coinvolgenti, senza disporre di dispositivi ulteriori. Così con QuickTime VR e QuickDraw 3D, è possibile visualizzare filmati di grande effetto e modelli di realtà virtuale; QuickTime 3 comprende inoltre tecnologie di compressione video ed audio all’avanguardia e consente la riproduzione della maggior parte dei formati esistenti. Grazie al supporto per DVD-Rom, Mac OS X permette di usufruire di nuovi titoli, senza necessità di ulteriore hardware. Infine, il software di condivisione Web fornito col sistema permette di scoprire il mondo di Internet, utilizzando sia Microsoft Internet Explorer sia Netscape Navigator. PERIFERICHE DI INPUT Scanner - come funziona Tutti gli scanner funzionano sulla base del medesimo principio di riflessione e trasmissione della luce. L’immagine viene posta a monte della testina di scansione, che consiste in una sorgente di luce e un sensore. La quantità di luce riflessa dall’immagine o trasmessa attraverso di essa viene quindi misurata dal sensore e successivamente convertita sotto forma di tensione elettrica con intensità proporzionale. La tensione elettrica viene quindi trasformata da un convertitore analogico/digitale in bit di informazioni comprensibili al computer. Il sensore usato dagli scanner è di tipo Ccd (Charge Coupled Device). Questo dispositivo consiste in una serie di molti elementi fotosensibili disposti lungo una linea sottile. La risoluzione orizzontale di uno scanner dipende dal numero di punti per pollice (300, 600). La risoluzione verticale degli scanner desktop dipende dal grado di accuratezza con cui la testina può essere fisicamente spostata sopra l’immagine. È comune che la massima risoluzione verticale sia maggiore di quella orizzontale, grazie alla presenza di motori passo passo molto sofisticati; non è infatti insolita una risoluzione ottica pari a 300x600 dpi. La risoluzione ottica è quella massima ottenibile dal Ccd e dal motore passo passo. È possibile in ogni caso aumentare la risoluzione apparente tramite l’uso di una tecnica nota come interpolazione che, sotto controllo hardware e software, calcola valori intermedi e li inserisce tra quelli reali, in tal caso è possibile arrivare a valori di 9600 dpi a partire da risoluzioni ottiche di 300 dpi. 27 Acquisizione di una immagine con lo scanner Quando vogliamo utilizzare un’immagine che non si trova già in formato digitale, dobbiamo impiegare uno scanner. La caratteristica più importante di uno scanner è la risoluzione, misurata in dpi (dot per inch, punti per pollice) Si tratta letteralmente del numero di pixel prodotti per ogni pollice di lunghezza dell’immagine digitalizzata. La digitalizzazione a milioni di colori consente di usare risoluzioni anche modeste; risoluzioni elavate sono necessarie solo quando si vogliono aumentare sensibilmente le dimensioni dell’immagine o quando si lavora in modalità bianco e nero, nota anche come line art. In questa modalità volendo ottenere un risultato con le stesse dimensioni dell’originale, occorrerebbe eseguire la digitalizzazione con la stessa risoluzione della stampante. Breve guida per una buona scannerizzazione Obiettivo Risoluzione scanner Immagini su Web 72-100 dpi Stampa documenti 200 dpi Stampa fotografie 300 dpi Risultati di alta qualità 1.200 dpi Chiaramente occorre conoscere in anticipo l’uso che si vorrà fare dell’immagine che si vuole scannerizzare. Per esempio se si deve digitalizzare un documento anagrafico, allora una risoluzione di 200 dpi (qualità fax) rappresenta la scelta migliore. Con una risoluzione variabile da 200 a 300 dpi possiamo correlare al meglio il nostro lavoro con una stampante a 300 dpi. Un’altra applicazione che non richiede alta risoluzione è il Web publishing. Considerando che la maggior parte dei monitors visualizza da 72 a 100 dpi, scannerizzare oltre i cento è sovrabbondante ai fini del Web. Inoltre immagini di alta risoluzione comportano dimensioni di file molto grosse e conseguenti difficoltà nel download da parte di utenti di Internet. Per un’analisi completa del problema occorre infine tenere conto dei formati grafici come da tabella. 28 TIPI DI IMMAGINI Immagini vettoriali Le immagini vettoriali, chiamate anche immagini orientate agli oggetti o disegno, vengono definite matematicamente come una serie di punti uniti da linee. Gli elementi grafici in un file vettoriale vengono chiamati oggetti. Ogni oggetto costituisce un entità autonoma dotata di proprietà quali colore, forma, contorno, dimensione e posizione sullo schermo, incluse nella sua definizione. Dal momento che ogni oggetto costituisce un’entità autonoma, l’utente può spostarlo e modificare le sue proprietà a piacimento mantenendo contemporaneamente la sua chiarezza e definizione e senza influenzare altri oggetti presenti nell’illustrazione. Queste caratteristiche rendono i programmi basati su grafica vettoriale ideali per la realizzazione di illustrazioni e la modellazione in 3D, attività nelle quali le procedure di progettazione richiedono spesso la creazione e la manipolazione di oggetti individuali. Formati grafici Windows MetaFile, (.WMF) È il formato Windows standard per la memorizzazione di grafica vettoriale. DXF, DWG, ecc Sono i formati tipici dei files per CAD (Computer Aided Design). 29 Immagini Bitmap Le Immagini bitmap, anche chiamate immagini raster, sono composte di punti singoli denominati pixel (elementi immagine) che vengono disposti e colorati in modo differente per creare un motivo. Quando si ingrandisce un’immagine è possibile vedere i riquadri individuali che compongono l’immagine complessiva. Aumentare le dimensioni di una bitmap ha l’effetto di incrementare le dimensioni dei singoli pixel, facendo apparire frastagliate le righe e le forme. Tuttavia, colore e forma di un’immagine bitmap appaiono continui se esaminati da una distanza maggiore. Dal momento che ogni pixel è colorato individualmente, è possibile creare effetti fotorealistici quali ombreggiature ed intensificazione colore manipolando aree specifiche, un pixel per volta. Inoltre, ridurre le dimensioni di una bitmap distorce l’immagine originale perché i pixel vengono rimossi per ridurre le dimensioni complessive dell’immagine. Per di più, dal momento che un’immagine bitmap viene creata come collezione di pixel con una certa disposizione, le sue parti costitutive non possono essere manipolate (ad esempio, spostate) in modo individuale. Formati grafici Targa, (.TGA) È nato con l’avvento delle schede grafiche professionali Truevision Vista e Targa della AT&tT, ed è il formato standard per tutte le applicazioni di grafica True Color 24 bit che utilizzano tali schede. Da quando anche le applicazioni basate su Windows gestiscono immagini a 24 bit, il formato TGA è stato incluso nella quasi totalità delle applicazioni raster per Windows, divenendo uno standard di riferimento. La sua codifica prevede l’uso di risoluzioni a 16, 24 e 36 bit di profondità. L’intestazione occupa da 18 a 530 byte a seconda della Palette di riferimento dei colori. I dati vengono codificati tramite il valore del colore e la posizione dei pixel, a partire dall’angolo in basso a sinistra dell’immagine. TIFF, (.TIF) È un formato nato per le applicazioni di Desk Top Publishing e per le acquisizioni delle immagini tramite scanner. La sua codifica è decisamente più complessa rispetto al formato TGA. Questo formato in origine era nato per le immagini in bianco e nero, infatti permette risoluzioni cromatiche che vanno da 1 bit (bianco e nero) a 32 bit (immagini True Color). Può essere non compresso o compresso con diversi metodi tra cui Lzw (il più diffuso), il Packbits, Ccitt Rle. 30 A differenza del formato TGA, la codifica TIFF possiede una minima intestazione (circa 8 byte), mentre le informazioni riguardanti l’immagine sono contenute in speciali campi, ben 45, denominati TAG che, a seconda del tipo di immagine, possono essere attivati o no. I dati dei pixel sono contenuti in un’area detta area dei dati. JPEG, (.JPG) Offre un elevato grado di compressione di tipo lossy. È adatto per immagine fotografiche od ottenute con scanner e lavora nel modo migliore con immagini a 24 Bit. Risulta non appropriato per qualsiasi tipo di disegno vettoriale. Compuserve GIF, (.GIF) È stato sviluppato nell’87 dalla Compuserve. È in grado di memorizzare immagini con un massimo di 64.000 pixel e 265 colori contemporanei. Paintbrush PCX, (.PCX) Quando ancora non esisteva Windows, i pochi software grafici in ambiente DOS usavano il formato PCX della Zsoft, che permetteva una codifica massima di 256 colori. Oggi, dopo aver portato la gestione della grafica a 24 bit true color, è gestito dalla maggior parte dei software grafici in ambiente Windows. Bitmap, (.BMP) È una sorta di standard per l’ambiente Windows. Memorizza immagini sia a colori che a livelli di grigio fino a 24 bit. Kodak Photo CD, (.PCD) È l’ultima frontiera della ricerca tecnologica. Nato per permettere la memorizzazione di immagini fotografiche su CD ROM, ha raccolto talmente tanti consensi da creare una valida alternativa all’acquisizione di immagini tramite scanner. Praticamente, dopo aver scattato le foto, si porta il rullino in laboratori specializzati dove viene effettuata la digitalizzazione e la successiva memorizzazione delle immagini. Al momento del ritiro, viene consegnato un CD ROM. I vantaggi sono molteplici: - notevole risparmio di spazio per la memorizzazione delle immagini (un CD ROM contiene circa 120 foto ad alta risoluzione); - memorizzazione delle immagini a 24 bit True Color con elevate risoluzioni; - disponibilità della stessa immagine a risoluzioni diverse (ogni file PCD infatti contiene la stessa immagine acquisita alle risoluzioni di 175, 250, 500, 1000, 2000 dpi); 31 - visualizzazione delle immagini anche su un comune televisore tramite l’uso del lettore Kodak Photo CD. Encapsulated Post Script, (.EPS) È adatto per memorizzare ad alta compressione e a qualità inalterata immagini che devono essere stampate. È ovvio che la stampante che si intende utilizzare deve supportare questo formato. Le immagini in EPS non vengono in genere visualizzate dai programmi grafici oppure sono visualizzabili in versione preview. Portable Network Graphics, (.PNG) È un nuovo formato grafico bitmap approvato dal Consorzio del WWW come formato che dovrà sostituire nel prossimo futuro il formato .GIF. Infatti il .GIF usa come algoritmo di compressione dati LZW che è un algoritmo registrato, mentre il PNG è completamente libero da registrazioni. Le attuali versioni di Netscape e di Internet Explorer supportano il formato .PNG. I formati grafici per internet In Internet, i formati grafici di gran lunga più utilizzati sono il GIF (Graphics Interchange Format) e il JPEG (Joint Photographer Expert Group). A questi si aggiunge il formato .PNG. Il metodo jpeg permette di solito rapporti di compressione più elevati del formato gif, e la perdita di informazioni non è mai tale da compromettere la qualità dell’immagine. Si possono pertanto osservare le seguenti regole: 1. utilizzare il numero di colori strettamente necessario (ad esempio, se è l’immagine è in formato gif, si possono utilizzare 16 colori anziché 256); 2. sembra che la grande maggioranza di utenti di Personal Computer utilizzino monitor a 14 pollici con scheda grafica VGA o SuperVGA, cioè con risoluzioni massime rispettivamente di 640x480 e 800x600: pertanto, immagini più grandi di questi valori dovranno essere visualizzate tramite l’uso delle scroll-bar verticale ed orizzontale, piuttosto fastidiose; 3. è buona norma contenere le immagini nelle dimensioni 450x450 o analoghe, perché non è detto che l’utente utilizzi la finestra del browser a schermo intero; 4. nella scelta della risoluzione dell’immagine si deve tenere conto che i monitor visualizzano le immagini con una risoluzione da 72 a 100 pixel/pollice: pertanto, una immagine con risoluzione superiore viene visualizzata con dimensioni maggiori di quelle reali; 5. appena possibile, conviene inserire piccole immagini (thumbnails) che, selezionate, permettono di accedere all’immagine originale più grande. Vi è inoltre la possibilità di utilizzare nei documenti HTML le cosiddette immagini gif interlacciate anziché essere caricate riga per riga, esse vengono caricate intere con successive passate a risoluzioni sempre maggiori. Il vantaggio è che l’utente non deve aspettare per comprendere il contenuto dell’immagine, lo svantaggio è che il processo di caricamento può risultare per alcuni 32 fastidioso. Questo tipo di immagini viene creato da appositi programmi di fotoritocco. Ancora, possono essere utilizzate le immagini gif animate. Le ultime versioni di Netscape e Internet Explorer riconoscono speciali controlli inseriti in immagini che sono formate da una successione di immagini (che formano appunto una breve animazione). Anch’esse sono realizzate con appositi software. Infine, possono essere utilizzate le cosiddette immagini gif trasparenti (formato GIF89). Esse contengono un colore che viene reso trasparente, cioè tale da non coprire il colore sottostante su cui verrà posizionata. Questo colore è di solito lo sfondo del soggetto dell’immagine stessa: in tal modo, quando l’immagine sarà posizionata sopra uno sfondo di quel colore (lo sfondo della pagina HTML), essa apparirà come parte integrante dello stesso. I parametri che definiscono un’immagine Tali parametri sono: 1. le dimensioni espresse in pixel (punto dello schermo, nei monitor a colori; è composto da 3 puntini –fosfori- uno per ogni componente cromatica – rosso R, verde G, blu B) 2. la profondità del colore che definisce il numero di colori possibili dell’immagine dati dal BIT PLANE (Bpp) supportato. Il numero di colori che l’immagine contiene viene determinato dal numero di bit per pixel (bpp): più grande è il numero di informazioni per ogni pixel, maggiori saranno i colori di sfumatura e ombreggiatura che il file potrà contenere, secondo lo schema: Per le immagini bitmap, è necessario considerare un altro parametro: la risoluzione espressa in dpi vale a dire dal numero di punti (pixel) per pollice (un pollice equivale a 2,54 cm) dell’area dell’immagine stessa, ed è definita dal dispositivo che si sta considerando, sia esso uno scanner, il monitor o una stampante. I monitor hanno una risoluzione di circa 72 dpi , mentre alcune stampanti a colori hanno una capacità di 700 dpi ciò determina un problema : i pixel hanno dimensioni diverse a seconda dei dispositivi, quindi un’immagine bitmap avrà dimensioni differenti a seconda che venga visualizzata o stampata su dispositivi con risoluzione diversa. Ad esempio un’immagine che ha dimensione 72x72 pixel, dimensioni pari ad un pollice sullo schermo, qualora venisse stampata su una stampante a 300 dpi avrebbe dimensioni inferiori ad un quarto di pollice (72 pixel disegnati a 300 dpi 72/300=0,24 pollici ). La risoluzione è pertanto un termine contenitore che si riferisce : 33 1. alla quantità di dettaglio ed informazioni contenute da un file immagine, 2. al livello di dettaglio che un dispositivo di input, output, o visualizzazione è in grado di riprodurre. I disegni basati su grafica vettoriale sono indipendenti dalla risoluzione. Ciò significa che essi appaiono alla risoluzione massima consentita dalla periferica utilizzata, monitor o stampante che sia. Quindi la qualità dell’immagine di un disegno è migliore se stampata da una stampante a 600 dpi rispetto a quella ottenuta con una stampante a 300 dpi. Confronto tra immagini vettoriali e bitmap Gli oggetti sono creati come collezioni di righe in grafica vettoriale mentre nelle immagini bitmap sono realizzati per mezzo di pixel singoli ordinati in motivi. Dei due formati, le immagini bitmap tendono ad offrire maggiori sfumature di ombreggiatura e texture ma richiedono anche una maggiore quantità di memoria e un tempo di stampa più lungo. Le immagini vettoriali forniscono linee più nitide e richiedono minori risorse di stampa. Programmi di pittura, elaborazione immagini e scansione generano immagini bitmap e sono particolarmente indicati nelle applicazioni che richiedano variazioni continue dei toni. Per le immagini bitmap la risoluzione definita durante le operazioni di elaborazione, solitamente rimarrà una costante. Infatti, sia che si stampi un file bitmap su una stampante laser a 300 dpi o su una fotocompositrice a 1270 dpi, il file verrà stampato alla risoluzione impostata alla creazione dell’immagine, a meno che la risoluzione della stampante risulti inferiore a quella dell’immagine. Se si desidera che il risultato definitivo sia identico a quanto appare su schermo, è necessario essere al corrente della relazione esistente fra risoluzione dell’immagine e risoluzione delle varie periferiche prima di dare il via alle operazioni. Telecamera - ac cquisizione di un filmato Il primo problema che si deve affrontare è la conversione da analogico a digitale del filmato che si possiede, in modo da poterlo visualizzare sul computer. Per fare ciò è necessario disporre di una scheda di cattura video, che dovrebbe avere le seguenti caratteristiche: 1. Avere dei connettori che permettano di collegarla a vari dispositi : VCR, videocamera, televisione 2. Convertire i video da formato analogico (la ripresa tramite telecamera) a quello digitale con: velocità fino a 30 fotogrammi al secondo per lo standard americano NTS, o fino 25 fotogrammi al secondo, per gli standard europei PAL, SECAM (fps : velocità con cui vengono eseguiti i video, maggiore è la velocità migliore è l’esecuzione in quanto vengono eliminati i ritardi di visualizzazione), profondità cromatica elevata. Ad esempio con 15 fotogrammi al secondo e con una profondità cromatica di 24 bit la scheda deve essere in grado di fare la conversione in tempo reale cioè la conversione deve avvenire man mano che 34 la scheda riceve il segnale video in formato analogico, altrimenti si avrebbe la perdita di fotogrammi . 3. Sarebbe bene che le schede video disponessero delle funzioni di compressione dati realizzati in hardware, in caso contrario è il software che gestisce la compressione ma il video appare in una finestra di dimensioni ridotte, scorre a scatti ed è sgranato. Se il video che si cattura ha una colonna sonora durante la conversione non si ha la perdita del sonoro in quanto lo standard prevede l’interleaving tra audio e video , cioè il procedimento di miscelazione di due mezzi. Ovviamente si deve disporre di una scheda audio, ma la cosa principale da ricordare è che il suono rimarrà insieme al video anche dopo la conversione da analogico a digitale. L’acquisizione video Elementi fondamentali di cui tener conto per digitalizzare un filmato 1. il FRAME, ossia il fotogramma o la singola immagine del filmato. 2. la FULL MOTION VIDEO (FMV), ossia il video che opera a 25/30 frame al secondo (il filmato è “full”, pieno). 3. la FULL SCREEN MOTION VIDEO, ossia il video che opera a pieno schermo. Normalmente si intende una risoluzione 640x480 punti o pixel (VGA). 4. la PROFONDITA’ CROMATICA, ossia la profondità di colore. Con ciò si intende il numero di bit richiesti per rappresentare ogni singolo pixel dell’immagine. Quanto maggiore è il numero di colori utilizzati tanto maggiore è la quantità di dati che devono essere trasmessi al monitor. Generalità e tipi di segnali Il primo problema che si deve affrontare è la conversione da analogico a digitale del filmato che si possiede, in modo da poterlo visualizzare sul computer. Per fare ciò è necessario disporre di una scheda di cattura video. I segnali relativi alle principali reti televisive sono: PAL Europa occidentale (eccetto la Francia), 25 fotogrammi/sec. SECAM Francia, 25 fotogrammi/sec. NTSC USA, GIAPPONE, 30 fotogrammi/sec. 35 Da analogico a digitale In questi ultimi anni abbiamo assistito ad un’innovazione importante nel campo della multimedialità: la numerizzazione del video e della voce e il suo trasporto - anche per via telematica - sotto forma di bit, alla stessa stregua delle altre informazioni. Il segnale video raccolto da un videoregistratore o una telecamera tradizionale è in formato analogico. Così anche la voce umana raccolta da un microfono produce in uscita un segnale elettrico analogico. Esiste quindi la necessità di convertire il segnale analogico proveniente dalla telecamera o dal videoregistratore in un segnale digitale, comprensibile dal computer. Microfono I microfoni sono collegati alla scheda audio mediante degli spinotti (mini-jack) da 1/8 di pollice. I microfoni possono essere di due tipi: 1. DIREZIONALI che consentono di raccogliere solo i suoni che provengono da una fonte posta direttamente di fronte. 2. OMNIDIREZIONALI raccolgono tutti i suoni presenti nell’ambiente di registrazione. n.b. il suono così acquisito non avrà comunque mai le caratteristiche professionali di quello registrato in sala di incisione. La tavoletta grafica Con le tavolette grafiche lo spostamento del puntatore sullo schermo corrisponde a movimenti effettuati a mano libera da una specie di penna elettronica su di una tavoletta sensibile ai campi magnetici. Inoltre in combinazione con software specifici una tavoletta grafica a pressione e uno stilo possono emulare perfettamente le azioni di pennello e matita su tela o su carta. I fattori di cui tener conto per l’acquisto di una tavoletta grafica sono: un’area di lavoro adeguata, la dotazione di pulsanti programmabili, la sua sensibilità alla pressione per poter regolare il tipo di tratto utilizzato, infatti a una pressione maggiore corrisponde un segno più scuro e più marcato, la disponibilità di strumenti di puntamento senza fili, lo stilo per gli artisti e un disco di puntamento per i tecnici. La fotocamera digitale – acquisizione di un’immagine Il principio di funzionamento di una fotocamera digitale si basa sulla messa a fuoco del soggetto da fotografare da parte dell’obiettivo su un particolare microchip sensibile alla luce chiamato Charge Coupled Device (Ccd). Questo specifico componente contiene alcune centinaia di migliaia di celle fotosensibili che agiscono come punti di campionatura in grado di convertire in pixel la luce che penetra 36 dall’obiettivo. In pratica le celle, quando vengono colpite dalla luce generano ognuna una carica elettrica proporzionale all’intensità del fascio luminoso che le ha investite. Più intensa è la luce, maggiore è il potenziale elettrico e ciò che ne risulta è un pixel più luminoso. Più elevato è il numero di celle, maggiore è anche la risoluzione e quindi risultano più precisi i dettagli dell’immagine. Successivamente un chip di conversione analogico digitale, chiamato ADC trasforma il segnale in cifre binarie 0 e 1, producendo un file bitmap a colori caratterizzato dalla medesima risoluzione, in genere 640x480 pixel. L’ultima fase prevede che l’intera matrice digitale, che corrisponde al soggetto inquadrato dal visore/puntatore LCD, venga compressa in formato .JPG, o di altro tipo, in base a dei fattori di compressione (Fine, Normal ed Economy), selezionabili anche manualmente. Per salvare le immagini possono essere utilizzati sistemi differenti: 1. uso di memorie di tipo flash amovibili, generalmente di 2- 4 Mbyte; 2. sistemi di memorizzazione di tipo card compatibili allo standard PCMCIA; 3. uso dei Minidisc, ideale se si devono immagazzinare grossi quantitativi di immagini 4. uso dei tradizionali Floppy-disk La fase di trasferimento delle immagini dalla fotocamera al computer si limita all’utilizzo di un cavo seriale oppure ad un collegamento SCSI (più veloce di quello seriale), del relativo software di comunicazione e del comando di salvataggio automatico delle immagini sull’hard disk. Se si dispone di un modem è inoltre possibile spedire in qualsiasi parte del mondo, attraverso Internet le immagini ottenute mediante la fotocamera digitale. Con una fotocamera digitale è quindi possibile ottenere immagini in formato elettronico da immagazzinare sul proprio PC, evitando i passaggi di sviluppo o digitalizzazione con scanner. Tastiera musicale Lo standard Midi consente la comunicazione fra gli strumenti musicali adeguatamente predisposti, come una tastiera musicale, e i computer. Anche il personal deve essere predisposto: più precisamente bisogna dotarsi di una scheda Midi da inserire nel Pc: è proprio tale scheda che rende possibile il collegamento. Una volta configurato il sistema, le varie funzioni che si desiderano dipendono dal software utilizzato e dalla funzionalità dello strumento: alcune tastiere, per esempio, già prevedono un floppy disc in grado di salvare i brani in formato Midi, leggibile poi, tramite appositi software, sul computer, dal quale possono poi essere riprodotti attraverso la scheda audio. Altri programmi, invece, sono in grado di leggere i dati provenienti dallo strumento via scheda Midi e memorizzarli su disco. Esistono infine software che consentono la rielaborazione di brani musicali, operando sullo 37 spartito. Col protocollo MIDI, anziché trasmettere voluminosi file contenenti un campionamento del suono che si vuole riprodurre o registrare, il computer si limita a scambiare comandi lunghi pochi byte che definiscono la nota in tutti i suoi attributi primari: altezza, volume, durata, modalità di esecuzione (ad esempio vibrato) e tipo di strumento che la produce. La codifica MIDI definisce anche i vari bottoni, pedali e quadranti di regolazione che esistono sui sintetizzatori. Il collegamento fisico è composto da un cavo simile a quello seriale e ciascun canale MIDI presente sul sintetizzatore corrisponde a uno strumento, o “voce”, differente. Si possono programmare diversi canali contemporaneamente per ottenere un effetto orchestrale. Uno degli impieghi più comuni del protocollo e dell’interfaccia MIDI è la sincronizzazione delle note prodotte su diversi sintetizzatori, ma vengono anche usati per registrare su computer in forma compatta intere sessioni musicali per poi riprodurle come nell’originale oppure modificarle con appositi programmi di editing (basta cambiare il contenuto dei comandi per mutare l’effetto sonoro risultante). Ad esempio alterando la temporizzazione registrata nel file MIDI si modifica il ritmo del brano. Si può eseguire la trasposizione automatica di un brano da una nota chiave all’altra (ad esempio da LA maggiore a DO maggiore). I programmi di editing convertono anche i comandi MIDI in una notazione musicale su pentagramma da rappresentare a video o da stampare su carta. Adottato dall’industria musicale nel 1983, questo standard aveva inizialmente lo scopo di permettere la riproduzione dello stesso brano su sintetizzatori diversi e oggi viene supportato dalla maggior parte dei sintetizzatori e delle tastiere elettroniche, oltre che da diversi strumenti convenzionali. LE STAMPANTI Le stampanti servono per trasferire su carta i vari documenti, testi, grafici, immagini, tabelle, creati con il computer. Esistono vari tipi di stampanti caratterizzate da tecnologie diverse: a getto di inchiostro, laser, a trasferimento termico e a cera, ciascuna di queste può essere in bianco e nero o a colori, adatte ai normali fogli in formato Uni A4 o a quelli più grandi in Uni A3. Tutte quante basano il loro funzionamento sulla generazione di immagini composte con una serie di punti, ma la resa qualitativa (e il loro costo) varia da stampante a stampante. La stampante laser Le laser, per esempio, producono documenti di qualità decisamente migliore rispetto alle altre, ma costano anche molto di più e difficilmente sono alla portata di tutti. Le stampanti laser non usano inchiostro, ma il toner. 38 Si tratta di una polvere nera, contenuta in una cartuccia sigillata, che viene trasferita su carta tramite raggio laser. Alcune stampanti hanno un vero e proprio cassetto per riporre i fogli, mentre altre hanno una vaschetta con guide. In genere si possono sistemare tra i 50 e i 100 foglio per volta del formato Uni A4. Prima di caricare la carta nella stampante è opportuno “smazzare” i fogli per evitare che si inceppino tra il rullo trattore e la testina di scrittura. Windows95 dispone di molti driver standard per le stampanti più diffuse, in ogni caso è meglio utilizzare quelli forniti con la stampante in quanto sono generalmente più aggiornati. La stampante inkjet Le stampanti inkjet utilizzano una cartuccia di inchiostro che contiene da uno a quattro colori. A volte c’è una cartuccia per ciascun colore, in altri casi tutti i colori sono contenuti nella stessa cartuccia. Queste stampanti rappresentano forse il miglior compromesso tra prezzo e qualità, consentendo anche la stampa a colori. La velocità di evoluzione della tecnologia di stampa, in questo senso, è stata eccezionale: solo fino a pochi anni fa le stampanti in bianco e nero erano lo standard di mercato e l’impiego del colore prevedeva invece costi esorbitanti. La qualità di stampa ha raggiunto livelli molto elevati, consentendo, con l’uso di particolari supporti cartacei, la riproduzione di tipo fotografico con una risoluzione superiore a 720 dpi. La stampante ad aghi Le stampanti ad aghi (sia nei primi modelli in b/n che nei più recenti a colori) potrebbero essere ormai solo un retaggio del passato se non conservassero una caratteristica utile a tante aziende: quella di poter stampare anche su modulo continuo (ossia su fogli attaccati l’uno all’altro). La caratteristica tecnica di una stampante ad aghi è il numero di aghi (9-24) posti sulla testina che quando scrive sulla carta accompagna il suo movimento con un rumore decisamente sgradevole. Il numero di caratteri (250–300 nelle migliori stampanti del tipo considerato) determina la velocità di stampa ormai imparagonabile alle stampanti laser. Possono collegarsi con il computer attraverso due interfacce di comunicazione: parallela compatibile con lo standard Centronics e seriale con lo standard RS-232C. Posteriormente sono provviste di microinterruttori – conosciuti come DIP – che consentono di determinare la configurazione ottimale per le proprie esigenze. Il plotter Questo strumento permette di produrre facilmente disegni, diagrammi, rendering, così come poster, insegne. 39 Stampa su vari tipi di supporto sia in rotolo che in fogli singoli. L’alta risoluzione garantisce immagini perfettamente nitide e brillanti colori. Se invece serve solo il Bianco/Nero, si possono montare cartucce di inchiostro nero ed ottenere una produttività strabiliante. Si possono stampare facilmente alti volumi di disegni ed anche in assenza dell’operatore. Una taglierina automatica separa con precisione i disegni e non costringe a perdere tempo per tagliare ed arrotolare i disegni realizzati. È uno strumento di lavoro per scuole dove il disegno tecnico od artistico costituiscono elementi fondamentali nell’indirizzo di studi. La stampa digitale Vengono attualmente impiegate in ambito editoriale, per basse e medie tirature, una serie di macchine da stampa in digitale sia a colori che in b/n. Lavorano partendo da bobina di carta generalmente dalla larghezza di 210 mm, raggiungendo una qualità di stampa paragonabile a quella ottenibile con le macchine tipografiche offset. Per la stampa in b/n, sempre con qualità tipografica i costi per medie tirature sono paragonabili a quelli di una fotocopia. Per la stampa in colore, il limite massimo di convenienza all’impiego di tale tecnologia è all’incirca di 300-500 copie. La fotounità La fotounità consente la stampa su pellicola fotografica trasparente di intere pagine comprensive di testi ed immagini necessarie alla stampa di libri, riviste e tutte le pubblicazioni in genere. La risoluzione media delle pellicole realizzate varia da 1.200 dpi a 2.400 dpi. Se le pagine da stampare sono a colori il programma di editoria, in coordinamento con la fotounità, consente di suddividere i colori fornendo 4 diverse pellicole relative ai 4 colori base (rosso, cyan, giallo, nero) di quadricromia necessari per il processo di stampa. I Masterizzatori I masterizzatori vengono utilizzati per archiviare file creati dall’utente o per fare copie di CD-ROM già esistenti. I masterizzatori sono dotati di due testine dotate di raggio laser: una per la lettura dei dati e una per la scrittura. Per la scrittura viene utilizzato un laser che scaldando un punto della superficie del rivestimento provoca una modifica del colore e quindi un’alterazione delle sue proprietà riflettenti. Così facendo vengono creati sulla superficie del CD alcuni punti che non riflettendo la luce sono interpretati dalla testina di lettura come solchi di un CD prodotto con il processo industriale. La tecnologia dei masterizzatori viene chiamata WORM (Write Once Read Many, scrivere una 40 sola volta leggere quante volte si vuole). Solo i masterizzatori dotati di interfaccia SCSI sono in grado di effettuare le copie dirette da CD-ROM a CD-R, per gli altri con interfaccia EIDE o parallela è necessario fare una copia del contenuto del CD-ROM su disco fisso e quindi utilizzando tale copia procedere alla masterizzazione del CD-R. Per l’uso del masterizzatore si consiglia un computer con le seguenti dotazioni hardware: Pentium con 32 Mbyte di RAM e meglio se dotato di disco fisso e masterizzatori con interfaccia SCSI. Affinchè il masterizzatore possa funzionare è necessario installare il software di scrittura. Prima di procedere alla masterizzazione è indispensabile la scelta del formato da usare. I formati disponibili sono: CD-DA, CD-ROM, CD-ROM XA, CD - EXTRA, UDF. Masterizzatori RW Assomigliano molto ai comuni masterizzatori sono dotati nella fase di scrittura di un laser potente che riscalda la superficie e del disco e quando è necessario fa passare le particelle dallo stato riflettente ma quello opaco. Il formato su cui si basano per l’archiviazione dei dati è l’UDF. Con questo sistema si aggiornano le directory e la struttura logica del disco ogni volta che il singolo file viene aggiornato o modificato. Sessioni Durante la fase di scrittura di un CD il laser incide una traccia sullo strato riflettente dei CD-R a forma di spirale dall’interno all’esterno, le tracce vengono poi raggruppate in sessioni e a seconda del formato scelto è possibile registrare sullo stesso Cd-R una o più sessioni. Consigli per una buona masterizzazione: 1. Creare sul disco fisso una apposita cartella su cui memorizzare l’immagine temporanea dei dati da masterizzare 2. Per ottimizzare la velocità di accesso al disco fisso e il trasferimento dei dati è opportuno attivare la frammentazione del disco con il comando Defrag di Windows 95 3. La duplicazione diretta di un CD-ROM su CD-R è possibile solo se si usa un masterizzatore con interfaccia SCSI. Se il masterizzatore non è SCSI bisogna creare un’immagine del CD-ROM su disco fisso 4. Per limitare il rischio di Buffer Underrun è meglio incidere il CD-R alla velocità più bassa supportata dal masterizzatore. 5. È meglio utilizzare sempre la simulazione di scrittura del CD-R, prima di iniziare l’incisione definitiva. 6. Evitare di toccare il masterizzatore mentre sta scrivendo, infatti le vibrazioni potrebbero far 41 muovere il compact disc che verrebbe bruciato dal raggio laser. 7. Non eseguire altre applicazioni durante la fase di scrittura sul CD–R perché il flusso di dati dal disco fisso al masterizzatore deve essere costante 8. Disattivare gli screeen saver, i programmi di posta elettronica, i servizi di rete e quant’altro possa rallentare il computer. 9. Non utilizzare pennarelli indelebili per scrivere sul dorso del compact disc perché potrebbero corrodere lo strato protettivo e intaccare i dati. Buffer underrun Le tracce di un CD devono essere scritte senza che si verifichino interruzioni. Pertanto tutti i masterizzatori devono possedere una sorta di memoria tampone (buffer) per compensare un rallentamento nel trasferimento dei dati provenienti dal computer. Quando la velocità di trasferimento è troppo bassa, il buffer non viene riempito abbastanza velocemente ed esaurisce i dati. Si verifica pertanto un "Buffer underrun". Il CD-R che si sta registrando rimane irreparabilmente perso. Videoproiettore - La tecnologia DLP (Digital Light Processing) La tecnologia DLP della Texas Instrument rappresenta una decisa innovazione nel settore della videoproiezione rispetto ai sistemi tradizionali a matrice passiva e TFT a matrice attiva. Il chip di base è formato da una superficie a specchio polarizzata formata da 800 x 600 pixel o microspecchi che in relazione al diverso grado di eccitazione cambiano la propria posizione angolare generando 16.7 milioni di tonalità diverse. In questo caso non avviene una “illuminazione” classica dei cristalli con passaggio del fascio di luce attraverso la matrice a cristalli liquidi ma quest’ultima viene solo riflessa dai microspecchi. Il dricoico Tale sistema consiste principalmente in una lente circolare formata da quattro settori: rosso, verde, blu e bianco, che ruotando ad alta velocità in sincronia con il funzionamento del chip DLP, consente di generare 16,7 milioni di colori. I vantaggi Tale tecnologia consente i seguenti vantaggi qualitativi: 1. 2. avere i microspecchi, corrispondenti alla dimensione di un pixel, praticamente rettangolari con uno spazio di 1 micron fra un elemento e l’altro. In proposito i sistemi tradizionali generano pixel di forma circolare con spazi decisamente superiori fra loro. Ne consegue una definizione dell’immagine notevolmente superiore. 42 3. Il tempo di innesco del cristallo che corrisponde a circa 30 millisec. per quelli a matrice attiva, scende a 16 millisec nel caso DLP . Ne consegue un più repentino aggiornamento delle immagini con possibilità di proiettare filmati digitali in rapido movimento senza perdita della qualità. 4. Il chip del DLP non viene attraversato dalla luce ed esiste quindi meno perdita di luminosità (circa 30%) dovuta al grado di trasparenza dei chip tradizionali, con conseguente riduzione delle potenze delle lampade a parità di luminosità. Meno potenza vuol dire ovviamente meno calore di riscaldamento con maggiore affidabilità e silenziosità del sistema. Le immagini proiettate possono inoltre, rimanere ferme anche per molto tempo senza danneggiare il chip. Altoparlanti (o cuffie) Altoparlanti e cuffie si collegano alla scheda audio mediante dei mini-jack. Gli Altoparlanti sono normalmente forniti insieme alla scheda audio ed hanno solitamente una buona resa sonora. In un’aula, però, è più opportuno installare delle cuffie in modo da consentire un ascolto indisturbato. TIPI DI CONFIGURAZIONI DI RETE La Rete e il Sistema Scolastico Per rete nell’ambito informatico si intende un sistema che permetta di far interagire diversi computers tra loro; perciò la rete soddisfa l’esigenza di comunicare e scambiare dati. La nascita delle reti comunque non è dovuta ad esigenze comunicative, quanto ad esigenze economiche. In una rete la potenza di calcolo viene distribuita su più calcolatori connessi tra loro. I vantaggi di una rete rispetto ad un sistema distribuito sono: 1. Miglior rapporto prestazioni/costo; 2. Facilità e gradualità di espansione; 3. Maggiore capacità di condivisione di risorse; 4. Miglior disponibilità e affidabilità del sistema; 5. Possibilità di rendere il sistema tollerante ai guasti. La rete telefonica è stato il primo mezzo utilizzato per risolvere il problema delle interconnessioni. Col passare del tempo le reti si sono evolute. Se prima il problema era quello di far comunicare un terminale remoto con un host, ora si tratta di interconnettere tra loro macchine indipendenti, magari con diversa architettura, capacità di scambiarsi messaggi, programmi, posta elettronica, immagini e voce. Tutto questo in modo economico, veloce, affidabile ed eventualmente protetto. 43 La novità rappresentata dall’introduzione del computer nell’ambito formativo deve essere commisurata al potenziale cognitivo e organizzativo dello strumento tecnologico stesso. L’informatizzazione del complesso scolastico deve avvenire in maniera relazionale; le risorse informatiche non vanno gestite localmente ma è auspicabile creare e gestire comunicazioni e messaggi tra le varie componenti scolastiche e tra esse e l’esterno. Nell’approccio relazionale la partecipazione dei soggetti all’opera educativa/formativa è massi- ma, comprendendo nel campo anche le realtà aziendali, professionali, sociali, istituzionali e formative connesse ai contesti lavorativi. Non si tratta di simulare nella scuola la realtà esterna ma di gestire nella scuola delle interazioni/collaborazioni con le organizzazioni esterne. In questa ottica ha senso disporre di una rete dati gestibile a vari livelli di accesso ma condivisa dai vari operatori scolastici che concorrono alla progettazione e alla realizzazione delle base dati gestite. Il sistema client server In una rete di calcolatori un server è un computer in grado di offrire l’accesso alle risorse disponibili: la sua funzione è quella di fornire servizi ad altri calcolatori o ad altri programmi. Questi ultimi sono appunto i client, che utilizzano quanto offerto alla rete dai server. Ovviamente client e server parlano un linguaggio, il protocollo di comunicazione, che permette loro di comprendersi. Su Internet i sistemi di NIR (Network Information Retrieval, la cui traduzione può essere strumenti per la ricerca di informazioni sulla Rete) si basano su questo sistema: il client è l’entità attiva, che invia richieste di servizio mentre il server è l’entità passiva che aspetta le richieste di servizio, le esegue (leggendo il proprio disco, o interrogando il proprio database dei nomi e così via) ed invia le risposte al client secondo il protocollo prestabilito. Il client può ulteriormente elaborare le informazioni così ottenute o presentarle direttamente all’utente. In una rete locale (LAN) il server mette a disposizione della rete il servizio di LOGIN (validazione del nome utente e della password), i dischi, le coda di stampa (aree dei dischi riservate ad accogliere i documenti da stampare ed abbinate a stampanti direttamente al server o collegate in rete autonomamente), la potenza elaborativa dei propri processori (per eseguire applicazioni direttamente sul server) ed eventuali modem per la connessione verso l’esterno. Praticamente ciascuna stazione accede alla rete con una propria interfaccia Ethernet e si collega alle altre mediante un cavo trasmissivo che può essere un cavo coassiale, chiuso all’estremità da tappi (connettori a T) che chiudono il percorso elettrico, oppure un doppino telefonico (e in tal caso i vari spezzoni di cavi confluiscono in un hub). Il connettore a T (con 3 uscite) raddoppia il connettore coassiale della scheda di rete, così che vi si possa collegare il cavo che arriva dalla stazione precedente e quello che parte verso la stazione 44 successiva. Nel caso non vi siano altri stazioni a valle, bisogna inserire uno speciale tappo per chiudere la rete. Caratteristiche del server Allo stato attuale il server ideale sarebbe il Pentium Pro, creato da Intel proprio per questo scopo. In realtà questo prodotto e’ destinato ad essere sostituito dal Pentium II a causa della sua architettura troppo costosa. Le funzioni multimedia del Pentium II sono del tutto inutili per un server. Prossimamente sarà realizzata una versione speciale del Pentium II, ottimizzata per l’uso come server di rete: sarà dotata di una maggior quantità di memoria cache ed adotterà un nuovo connettore (slot 2). La porta attraverso cui il server comunica con le altre stazioni collegate è l’interfaccia di rete, che può essere integrata sulla scheda madre oppure essere una scheda di espansione. Esistono interfacce con connettore ISA, ma a queste sono da preferire quelle PCI decisamente più veloci. I modelli da usare sono quelli di tipo Ethernet con velocità da 10 a 100 Mbps. La quantità minima di memoria da installare nel sistema è 64 MByte, infatti le prestazioni generali dei server (e quindi anche della rete) dipendono in gran parte della dotazione di memoria. Meglio se è di 128 MByte, e se il server è di tipo applicativo dovrebbe essere addirittura di 256 MByte. Per ridurre i rischi di perdita dei dati in caso di malfunzionamento di un’unità il server dovrebbe avere più di un disco fisso. In ogni caso sono da preferire i dischi con interfaccia Ultra Wide SCSI visto che questa offre prestazioni migliori di quella standard EIDE (40 MByte al secondo contro 33) e permette di installare nel sistema un numero maggiore di dischi (15 contro 4). Per gestire i dischi fissi Ultra Wide SCSI e le altre memorie di massa (lettori di CD-Rom e unità rimovibili) serve un controller Ultra Wide SCSI. Questo può essere integrato sulla scheda madre oppure su una scheda di espansione con connettore Pci. I modelli più adatti ai server offrono la tecnologia RAID (Redundant Array of lnexpansive Disks) che permette di collegare insieme più unità e di usarle come se fossero un unico disco, a ciò si combinano speciali teniche di distribuzione dei dati sui vari volumi (per esempio “RAID livello 1”). In questo modo si evita di perdere i dati quando un disco dovesse bloccarsi per un malfunzionamento. Nello schema appare chiaramente come ciascuna workstation può condividere con tutte le altre alcune delle proprie risorse ed in contemporanea accedere al server e alle risorse condivise delle altre workstation. Comunque sia in una rete client/server è necessario un computer (server) come punto di riferimento per tutti gli altri (client). Il server fornisce risorse e servizi e fa il monitoraggio del funzionamento generale della rete. A livello mondiale lo standard per questo tipo di soluzione è ETHERNET. Ethernet si basa sulla trasmissione con- temporanea della stessa informazione a tutte le unità di rete (trasmissione in broadcasting). 45 Ciò è possibile attraverso l’inserimento di schede di rete Ethernet all’interno sia del server che dei vari computer client, a loro volta collegati con cavi al server. La tradizionale rete Ethernet raggiunge la velocità di trasmissione di 10 Mbps (con prestazioni garantite del 50%), mentre la nuova tecnologia FAST Ethernet arriva a 100 Mbps. Distinguendo in base al tipo di cablaggio abbiamo due tipi di Ethernet: 1. cablaggio coassiale con cavo Rg 58 del diametro di circa 5 mm con connettori a baio- netta di tipo Bnc, 2. cablaggio a doppino telefonico ritorto non schermato Utp (categoria 3 o 5) con connettori di tipo plug telefonico Rj45. Esistono dei modelli di schede di rete denominati Combo che permettono il collegamento ad entrambe le tipologie di cablaggio. Non è possibile però realizzare una rete mista, con entrambi i tipi di cavi. L’unica possibilità di far convivere cablaggi diversi consiste nel realizzare due reti separate e farle dialogare tramite un concentratore (hub). Distinguendo in base alla topologia (ossia in base alla disposizione geometrica dei collegamenti e dei nodi che costituiscono la rete stessa) possiamo tracciare tre schemi di rete (di cui i primi due Ethernet): 1. topologia a bus (10 Base-2) in cui i nodi condividono un singolo canale fisico per mezzo di prese e connettori 2. topologia a stella (10 Base-T) Questa configurazione prevede il collega- mento delle postazioni a un concentratore (HUB). Questo strumento è in grado di segnalare quando un collegamento diventa critico e ciò evita, in caso di interruzione di un singolo segmento che viene automaticamente escluso, la caduta dell’intera rete (vulnerabilità tipica di una topologia ad anello in cui i nodi funzionano da ripetitori segnale). 3. topologia ad anello (token ring) Il token ring è utilizzabile per realizzare una rete locale in ambiente di PC IBM o IBM compatibili o in un ambiente con host computers IBM. Da un punto di vista fisico il token ring è comunque una stella poichè le postazioni sono allacciate ad al concentratore 8228 (provvisto di 10 prese, otto per connettere i nodi e due per estendere la rete) tramite doppi doppini telefonici intrecciati e schermati. La velocità di trasmissione è di 16 Mbp/s. Attualmente esistono hub per collegamenti 10 Base-T con 5, 8 o 12 porte che dispongono anche di una porta (daisy chain) per il collegamento in cascata di eventuali hub aggiuntivi. Comunque sia occorre considerare, al mo- mento dell’acquisto, che l’hub abbia un numero di porte superiore a quello strettamente necessario, onde evitare l’acquisto di un secondo hub per collegare in rete altre postazioni. 46