Le leggi di Moore Prima legge di Moore In elettronica e informatica è indicato come prima legge di Moore il seguente enunciato: « Le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi. » La prima legge di Moore è tratta da un'osservazione empirica di Gordon Moore, cofondatore di Intel con Robert Noyce: nel 1965, Gordon Moore, che all'epoca era a capo del settore R&D della Fairchild Semiconductor e tre anni dopo fondò la Intel, scrisse infatti un articolo su una rivista specializzata nel quale illustrava come nel periodo 1959-1965 il numero di componenti elettronici (ad esempio i transistor) che formano un chip fosse raddoppiato ogni anno. Moore, grazie alle sue supposizioni poi diventate leggi e conosciute come prima e seconda legge di Moore è stato dunque tra coloro che hanno dato il via alla corsa all'evoluzione dei processori. Nel 1965, Moore ipotizzò che le prestazioni dei microprocessori sarebbero raddoppiate ogni 18 mesi circa. Nel 1975 questa previsione si rivelò corretta e prima della fine del decennio i tempi si allungarono a 2 anni, periodo che rimarrà valido per tutti gli anni ottanta. La legge, che verrà estesa per tutti gli anni novanta e resterà valida fino ai nostri giorni, viene riformulata alla fine degli anni ottanta ed elaborata nella sua forma definitiva, ovvero che le prestazione dei processori raddoppiano ogni 18 mesi. Questa legge è diventata il metro e l'obiettivo di tutte le aziende che operano nel settore, non solo la Intel. Un esempio di come i microprocessori in commercio seguano la legge di Moore è il seguente: nel maggio del 1997 Intel lancia il processore Pentium II con le seguenti caratteristiche: Frequenza: 300 MHz Numero di transistor: 7,5 milioni dopo tre anni e mezzo, ovvero nel novembre del 2000, mette in vendita il Pentium 4 con le seguenti caratteristiche: Frequenza: 1,5 GHz Numero di transistor: 42 milioni Come si può vedere, in 42 mesi le prestazioni dei processori sono circa quintuplicate, proprio come prevedeva la legge. Infatti, a ben vedere, la frequenza del processore è passata da 300 MHz a 1,5 GHz, esattamente cinque volte quella del Pentium II. Ad ulteriore conferma c'è anche il numero di transistor utilizzati per costruire il processore, un processore Pentium II è formato da 7,5 milioni di transistor, se moltiplichiamo per cinque quel valore otteniamo che il processore dovrebbe essere formato da circa 37,5 milioni di transistor, il Pentium IV è formato da 42 milioni, il che vuol dire che non solo Intel ha rispettato la legge, ma addirittura è riuscita a fare meglio. I limiti della prima legge di Moore starebbero solo nel raggiungimento dei limiti fisici imposti per la riduzione delle dimensioni dei transistor, e quindi della scala di integrazione, al di sotto dei quali si genererebbero effetti 'parassiti' indesiderati di natura quantistica nei circuiti elettronici. Tali limiti sarebbero peraltro già stati raggiunti con la generazione dei processori Pentium al di sopra del quale l'unico modo possibile e praticabile per aumentare le prestazioni di calcolo e processamento dati è rappresentato dalla tecnologia multicore ovvero dall'accoppiamento in parallelo di più processori come avviene peraltro nei supercalcolatori dei centri di calcolo. Tali capacità di integrazione e quindi di processamento rendono possibile l'utilizzo di applicazioni informatiche sempre più complesse quali ad esempio quelle legate all'industria dell' entertainment quali i videogiochi oppure della computer grafica, mentre semplici applicazioni di calcolo matematico, se si esclude il calcolo scientifico ad alte prestazioni, sono soddisfabili anche con meno risorse di processamento. La seconda legge di Moore Gordon Moore affermava che: « sarebbe molto più economico costruire sistemi su larga scala a partire da funzioni minori, interconnesse separatamente. La disponibilità di varie applicazioni, unita al design e alle modalità di realizzazione, consentirebbe alle società di gestire la produzione più rapidamente e a costi minori. » Non si tratta certamente di considerare il logaritmo sulla memoria dei chip, già noto al fondatore di Intel, ma dell'implicita enunciazione di un'altra importante legge: quella che riguarda l'efficienza dei dispositivi elettronici ed il loro costo effettivo. Come nel caso della prima, si tratta di un accordo tra fattori diversi. Ma non fu Moore a trattare questi argomenti. Infatti Arthur Rock, uno dei primi investitori nella Intel osservò preoccupato che il costo dei macchinari per la fabbrica di cui era azionista raddoppiava ogni quattro anni circa. Da qui un primo principio su cui fondare una nuova legge: « Il costo delle apparecchiature per fabbricare semiconduttori raddoppia ogni quattro anni » In seguito, Moore integrò definitivamente la sua legge originaria (Leyden, 1997; Ross, 1995 formulandone, implicitamente, una seconda: « il costo di una fabbrica di chip raddoppia da una generazione all'altra » Egli fece quest'affermazione in base all'osservazione della dinamica dei costi legati alla costruzione delle nuove fabbriche di chip; costi che erano passati - in media - da 14 milioni di dollari nel 1966 a un miliardo di dollari nel 1996. Questi costi erano quindi cresciuti a un ritmo superiore rispetto all'incremento di potenza dei chip previsto dalla prima legge. La proiezione di questi costi indicava che nel 2005 una fabbrica di chip sarebbe costata 10 miliardi di dollari. L'implicazione di questo primo andamento è che il costo per transistor, oltre a smettere di diminuire, sarebbe destinato ad aumentare. Dunque Moore aveva avvertito che la validità della sua prima legge stava per giungere a termine. Da notare però che nello stesso periodo in cui Moore in qualche modo smentiva se stesso, gli sviluppi realizzati nella litografia (anche presso l'Università del Texas) hanno consentito dei risparmi di costo e dei miglioramenti di qualità dell'output che confermavano la validità della prima legge di Moore per almeno un altro decennio. Da considerare è anche un altro aspetto che emerge quando si cita la legge di Moore: l'accentuazione che generalmente viene data al vantaggio competitivo offerto dalla tecnologia dei processori e dalle implicazioni fornite anche dalle "code" di questa tecnologia. Poiché i processori d'avanguardia aumentano di potenza a parità di prezzo, i processori della generazione precedente, la cui potenza rimane fissa, calano di prezzo. Come osserva Karlgaard (1998): « il corollario è che nel 2008 i chip Pentium II e PowerPC costeranno circa 75 cent" » Significa che sarà conveniente utilizzare questi chip negli elettrodomestici, negli autoveicoli e in tutte le applicazioni ad ampia diffusione. In aggiunta oggi una fabbrica costa sempre circa 2-3 miliardi di dollari (USD), mentre la sua produttività è cresciuta a dismisura in throughtput e in volumi specifici. Di conseguenza, occorre effettivamente analizzare anche il ciclo del valore e dei volumi del prodotto finale. Ad esempio, una nuova macchina da 10 milioni di Euro, che può produrre miliardi di transistor in più, permetterà di ottenere un vantaggio competitivo in maniera indipendente dal costo dell'impianto produttivo e del ciclo di rimpiazzo delle linee di produzione. Sempre se il prodotto viene venduto completamente. Tutte le innovazioni tecnologiche e il miglioramento della qualità dei materiali che hanno reso possibile il processo di scala dei dispositivi hanno comportato, però, investimenti sempre crescenti in apparecchiature: da queste osservazioni si può comprendere il perché di un'ulteriore interpretazione della seconda legge di Moore: « L'investimento per realizzare una nuova tecnologia di microprocessori cresce in maniera esponenziale con il tempo. » Ovviamente, per incrementare le prestazioni, occorrono sempre maggiori studi, ricerche e test. Per aumentare il numero di transistor all'interno del processore, senza aumentare la dimensione del processore stesso, occorrono dei componenti sempre più piccoli, quindi nuovi materiali che permettano questo risultato. L'aumento delle prestazioni comporta dei test, sia per provare la resistenza dei materiali, sia per l'affidabilità stessa del processore. Tutto questo ovviamente comporta delle spese che la casa produttrice deve affrontare se vuol avere un prodotto funzionante e funzionale. Al momento attuale, fermo restando il fatto che l'entità dell'investimento dipende in maniera significativa dal tipo di prodotto in sviluppo e dalle economie di scala che si intendono effettuare, una stima intorno ai 2-5 miliardi di dollari non sembra lontana dal vero. Ogni nuova linea pilota richiede, quindi, investimenti (e coinvolge ricercatori) paragonabili con quelli degli acceleratori di particelle o dell'esplorazione spaziale. Anche se l'industria microelettronica spende tradizionalmente circa il 20% del proprio fatturato in nuove fabbriche e il 12-15% in ricerca e sviluppo, la crescita degli investimenti richiesti per una nuova linea pilota tende a rappresentare una porzione, sempre più alta, del fatturato, con alcune implicazioni economiche rilevanti: riduzione nel numero di società che si possono permettere linee pilota avanzate; fenomeni di associazione di società diverse per condurre la ricerca in comune (SEMATECH, associazione di Motorola, Philips ed ST per la nuova linea da 300 mm ecc.); crescita dei rischi connessi ad un investimento sbagliato, che colpisce, soprattutto, le società che sviluppano le attrezzature di produzione nel settore della microelettronica. In generale, si sta quindi assistendo ad un fenomeno di netto consolidamento del settore, sintomo di una industria matura, con alte barriere di ingresso, tendenza sensibile all'oligopolio ed una forte riduzione della propensione al rischio. È comunque presente un problema, che invita a calmare gli entusiasmi, dato dalla necessità di garantire un ritorno economico adeguato per gli investimenti iniziali fatti: ogni nuova generazione tecnologica deve produrre utili sufficienti a ripagare le spese di sviluppo, e questo è possibile solo se si aprono nuovi mercati di massa. In quest'ottica potrebbe arrivare un momento in cui non esisteranno più applicazioni di massa tali da giustificare economicamente lo sviluppo di nuove tecnologie a prestazioni superiori. Esiste quindi una forte spinta a cercare vie alternative che garantiscano la continuazione della situazione attuale per il più lungo tempo possibile e salvaguardare così il mercato. A questo proposito bisogna tenere presente che il punto critico non è costituito tanto dalle dimensioni del transistor quanto piuttosto dalla possibilità di produrre circuiti integrati sempre più complessi e a costi sempre più bassi. Fonte: it.wikipedia.org/wiki/Legge_di_Moore Da tempo, però, diversi scienziati sono concordi nel preconizzare il fine vita della legge. Il fisico teorico Michio Kaku, docente presso la City University di New York, si spinge ancora più avanti e fissa tra dieci anni la "data di scadenza" della legge di Moore. "In circa 10 anni assisteremo al suo collasso", ha dichiarato lo studioso che sembra recitare il de profundis per una delle leggi che è considerata una colonna portante nel mondo dell'elettronica e dell'informaica e che ha tenuto botta, ormai, per ben 47 anni. Kaku, come molti altri esperti che si sono espressi prima di lui sull'argomento, spiega che saranno due gli aspetti a "far deragliare" la legge di Moore negli anni a venire: il calore e la superficie estremamente piccola che sarà chiamata a dissiparlo. I limiti fisici ai quali si sta avvicinando la tecnologia dei microprocessori porteranno quindi al collasso della legge di Moore anche perché, aggiunge il fisico statunitense, figlio di immigrati giapponesi, presto entrerebbero in gioco le leggi della meccanica quantistica e non si riuscirebbe più nemmeno a stabilire la posizione degli elettroni che sovrintendono le operazioni logiche. La legge di Moore sembrerebbe insomma avere se non i giorni quanto meno gli anni contati. Per quanto i produttori di microprocessori di adopereranno nello sviluppo di soluzioni avanzate per strutturare i chip, mantenendo così in vita la legge di Moore, ci sarà un momento in cui ci si renderà conto di come non ci sia più alcun margine per "tirare la corda". Anche se si utilizzeranno design 3D nelle CPU di "ultimo grido", osserva Kaku, non ci si potrà sottrarre al destino che attende la legge di Moore e, più in generale, ammettere che l'era del silicio stia ormai volgendo al termine. Esprimendosi sul quantum computing, tecnologia che nasce dall'unione fra teoria dell'informazione classica, informatica e fisica quantistica, Kaku ha dichiarato che i problemi da risolvere sono ancora enormi e che non si potrà avere nulla di sufficientemente maturo se non prima dell'ultima parte del 21esimo secolo. Va comunque osservato come fu lo stesso Gordon Moore, nel 2005, a riconoscere come la sua legge si riferisse più ad aspetti economici che tecnologici. L'informatico statunitense, classe 1929, alludeva al fatto che l'industria dei microprocessori ha di fatto seguito, nel corso degli anni, la curva fissata dalla sua legge soprattutto per stabilire degli obiettivi e mantenere il passo con le richieste del mercato. Fonte: www.ilsoftware.it/articoli.asp?tag=La-legge-di-Moore-e-ormai...