Le leggi di Moore
Prima legge di Moore
In elettronica e informatica è indicato come prima legge di Moore il seguente enunciato:
« Le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18
mesi. »
La prima legge di Moore è tratta da un'osservazione empirica di Gordon Moore, cofondatore di
Intel con Robert Noyce: nel 1965, Gordon Moore, che all'epoca era a capo del settore R&D della
Fairchild Semiconductor e tre anni dopo fondò la Intel, scrisse infatti un articolo su una rivista
specializzata nel quale illustrava come nel periodo 1959-1965 il numero di componenti elettronici
(ad esempio i transistor) che formano un chip fosse raddoppiato ogni anno.
Moore, grazie alle sue supposizioni poi diventate leggi e conosciute come prima e seconda legge di
Moore è stato dunque tra coloro che hanno dato il via alla corsa all'evoluzione dei processori.
Nel 1965, Moore ipotizzò che le prestazioni dei microprocessori sarebbero raddoppiate ogni 18
mesi circa. Nel 1975 questa previsione si rivelò corretta e prima della fine del decennio i tempi si
allungarono a 2 anni, periodo che rimarrà valido per tutti gli anni ottanta. La legge, che verrà estesa
per tutti gli anni novanta e resterà valida fino ai nostri giorni, viene riformulata alla fine degli anni
ottanta ed elaborata nella sua forma definitiva, ovvero che le prestazione dei processori raddoppiano
ogni 18 mesi.
Questa legge è diventata il metro e l'obiettivo di tutte le aziende che operano nel settore, non solo la
Intel. Un esempio di come i microprocessori in commercio seguano la legge di Moore è il seguente:
nel maggio del 1997 Intel lancia il processore Pentium II con le seguenti caratteristiche:


Frequenza: 300 MHz
Numero di transistor: 7,5 milioni
dopo tre anni e mezzo, ovvero nel novembre del 2000, mette in vendita il Pentium 4 con le seguenti
caratteristiche:


Frequenza: 1,5 GHz
Numero di transistor: 42 milioni
Come si può vedere, in 42 mesi le prestazioni dei processori sono circa quintuplicate, proprio come
prevedeva la legge. Infatti, a ben vedere, la frequenza del processore è passata da 300 MHz a 1,5
GHz, esattamente cinque volte quella del Pentium II. Ad ulteriore conferma c'è anche il numero di
transistor utilizzati per costruire il processore, un processore Pentium II è formato da 7,5 milioni di
transistor, se moltiplichiamo per cinque quel valore otteniamo che il processore dovrebbe essere
formato da circa 37,5 milioni di transistor, il Pentium IV è formato da 42 milioni, il che vuol dire
che non solo Intel ha rispettato la legge, ma addirittura è riuscita a fare meglio.
I limiti della prima legge di Moore starebbero solo nel raggiungimento dei limiti fisici imposti per la
riduzione delle dimensioni dei transistor, e quindi della scala di integrazione, al di sotto dei quali si
genererebbero effetti 'parassiti' indesiderati di natura quantistica nei circuiti elettronici. Tali limiti
sarebbero peraltro già stati raggiunti con la generazione dei processori Pentium al di sopra del quale
l'unico modo possibile e praticabile per aumentare le prestazioni di calcolo e processamento dati è
rappresentato dalla tecnologia multicore ovvero dall'accoppiamento in parallelo di più processori
come avviene peraltro nei supercalcolatori dei centri di calcolo.
Tali capacità di integrazione e quindi di processamento rendono possibile l'utilizzo di applicazioni
informatiche sempre più complesse quali ad esempio quelle legate all'industria dell' entertainment
quali i videogiochi oppure della computer grafica, mentre semplici applicazioni di calcolo
matematico, se si esclude il calcolo scientifico ad alte prestazioni, sono soddisfabili anche con meno
risorse di processamento.
La seconda legge di Moore
Gordon Moore affermava che:
« sarebbe molto più economico costruire sistemi su larga scala a partire da funzioni minori,
interconnesse separatamente. La disponibilità di varie applicazioni, unita al design e alle modalità di
realizzazione, consentirebbe alle società di gestire la produzione più rapidamente e a costi minori. »
Non si tratta certamente di considerare il logaritmo sulla memoria dei chip, già noto al fondatore di
Intel, ma dell'implicita enunciazione di un'altra importante legge: quella che riguarda l'efficienza dei
dispositivi elettronici ed il loro costo effettivo. Come nel caso della prima, si tratta di un accordo tra
fattori diversi. Ma non fu Moore a trattare questi argomenti. Infatti Arthur Rock, uno dei primi
investitori nella Intel osservò preoccupato che il costo dei macchinari per la fabbrica di cui era
azionista raddoppiava ogni quattro anni circa. Da qui un primo principio su cui fondare una nuova
legge:
« Il costo delle apparecchiature per fabbricare semiconduttori raddoppia ogni quattro anni »
In seguito, Moore integrò definitivamente la sua legge originaria (Leyden, 1997; Ross, 1995
formulandone, implicitamente, una seconda:
« il costo di una fabbrica di chip raddoppia da una generazione all'altra »
Egli fece quest'affermazione in base all'osservazione della dinamica dei costi legati alla costruzione
delle nuove fabbriche di chip; costi che erano passati - in media - da 14 milioni di dollari nel 1966 a
un miliardo di dollari nel 1996. Questi costi erano quindi cresciuti a un ritmo superiore rispetto
all'incremento di potenza dei chip previsto dalla prima legge. La proiezione di questi costi indicava
che nel 2005 una fabbrica di chip sarebbe costata 10 miliardi di dollari. L'implicazione di questo
primo andamento è che il costo per transistor, oltre a smettere di diminuire, sarebbe destinato ad
aumentare. Dunque Moore aveva avvertito che la validità della sua prima legge stava per giungere a
termine.
Da notare però che nello stesso periodo in cui Moore in qualche modo smentiva se stesso, gli
sviluppi realizzati nella litografia (anche presso l'Università del Texas) hanno consentito dei
risparmi di costo e dei miglioramenti di qualità dell'output che confermavano la validità della prima
legge di Moore per almeno un altro decennio. Da considerare è anche un altro aspetto che emerge
quando si cita la legge di Moore: l'accentuazione che generalmente viene data al vantaggio
competitivo offerto dalla tecnologia dei processori e dalle implicazioni fornite anche dalle "code" di
questa tecnologia.
Poiché i processori d'avanguardia aumentano di potenza a parità di prezzo, i processori della
generazione precedente, la cui potenza rimane fissa, calano di prezzo. Come osserva Karlgaard
(1998):
« il corollario è che nel 2008 i chip Pentium II e PowerPC costeranno circa 75 cent" »
Significa che sarà conveniente utilizzare questi chip negli elettrodomestici, negli autoveicoli e in
tutte le applicazioni ad ampia diffusione. In aggiunta oggi una fabbrica costa sempre circa 2-3
miliardi di dollari (USD), mentre la sua produttività è cresciuta a dismisura in throughtput e in
volumi specifici. Di conseguenza, occorre effettivamente analizzare anche il ciclo del valore e dei
volumi del prodotto finale. Ad esempio, una nuova macchina da 10 milioni di Euro, che può
produrre miliardi di transistor in più, permetterà di ottenere un vantaggio competitivo in maniera
indipendente dal costo dell'impianto produttivo e del ciclo di rimpiazzo delle linee di produzione.
Sempre se il prodotto viene venduto completamente.
Tutte le innovazioni tecnologiche e il miglioramento della qualità dei materiali che hanno reso
possibile il processo di scala dei dispositivi hanno comportato, però, investimenti sempre crescenti
in apparecchiature: da queste osservazioni si può comprendere il perché di un'ulteriore
interpretazione della seconda legge di Moore:
« L'investimento per realizzare una nuova tecnologia di microprocessori cresce in maniera
esponenziale con il tempo. »
Ovviamente, per incrementare le prestazioni, occorrono sempre maggiori studi, ricerche e test. Per
aumentare il numero di transistor all'interno del processore, senza aumentare la dimensione del
processore stesso, occorrono dei componenti sempre più piccoli, quindi nuovi materiali che
permettano questo risultato. L'aumento delle prestazioni comporta dei test, sia per provare la
resistenza dei materiali, sia per l'affidabilità stessa del processore. Tutto questo ovviamente
comporta delle spese che la casa produttrice deve affrontare se vuol avere un prodotto funzionante e
funzionale.
Al momento attuale, fermo restando il fatto che l'entità dell'investimento dipende in maniera
significativa dal tipo di prodotto in sviluppo e dalle economie di scala che si intendono effettuare,
una stima intorno ai 2-5 miliardi di dollari non sembra lontana dal vero. Ogni nuova linea pilota
richiede, quindi, investimenti (e coinvolge ricercatori) paragonabili con quelli degli acceleratori di
particelle o dell'esplorazione spaziale. Anche se l'industria microelettronica spende tradizionalmente
circa il 20% del proprio fatturato in nuove fabbriche e il 12-15% in ricerca e sviluppo, la crescita
degli investimenti richiesti per una nuova linea pilota tende a rappresentare una porzione, sempre
più alta, del fatturato, con alcune implicazioni economiche rilevanti:


riduzione nel numero di società che si possono permettere linee pilota avanzate;
fenomeni di associazione di società diverse per condurre la ricerca in comune
(SEMATECH, associazione di Motorola, Philips ed ST per la nuova linea da 300 mm ecc.);

crescita dei rischi connessi ad un investimento sbagliato, che colpisce, soprattutto, le società
che sviluppano le attrezzature di produzione nel settore della microelettronica.
In generale, si sta quindi assistendo ad un fenomeno di netto consolidamento del settore, sintomo di
una industria matura, con alte barriere di ingresso, tendenza sensibile all'oligopolio ed una forte
riduzione della propensione al rischio. È comunque presente un problema, che invita a calmare gli
entusiasmi, dato dalla necessità di garantire un ritorno economico adeguato per gli investimenti
iniziali fatti: ogni nuova generazione tecnologica deve produrre utili sufficienti a ripagare le spese
di sviluppo, e questo è possibile solo se si aprono nuovi mercati di massa. In quest'ottica potrebbe
arrivare un momento in cui non esisteranno più applicazioni di massa tali da giustificare
economicamente lo sviluppo di nuove tecnologie a prestazioni superiori. Esiste quindi una forte
spinta a cercare vie alternative che garantiscano la continuazione della situazione attuale per il più
lungo tempo possibile e salvaguardare così il mercato. A questo proposito bisogna tenere presente
che il punto critico non è costituito tanto dalle dimensioni del transistor quanto piuttosto dalla
possibilità di produrre circuiti integrati sempre più complessi e a costi sempre più bassi.
Fonte: it.wikipedia.org/wiki/Legge_di_Moore
Da tempo, però, diversi scienziati sono concordi nel preconizzare il fine vita della legge. Il fisico
teorico Michio Kaku, docente presso la City University di New York, si spinge ancora più avanti e
fissa tra dieci anni la "data di scadenza" della legge di Moore. "In circa 10 anni assisteremo al suo
collasso", ha dichiarato lo studioso che sembra recitare il de profundis per una delle leggi che è
considerata una colonna portante nel mondo dell'elettronica e dell'informaica e che ha tenuto botta,
ormai, per ben 47 anni. Kaku, come molti altri esperti che si sono espressi prima di lui
sull'argomento, spiega che saranno due gli aspetti a "far deragliare" la legge di Moore negli anni a
venire: il calore e la superficie estremamente piccola che sarà chiamata a dissiparlo.
I limiti fisici ai quali si sta avvicinando la tecnologia dei microprocessori porteranno quindi al
collasso della legge di Moore anche perché, aggiunge il fisico statunitense, figlio di immigrati
giapponesi, presto entrerebbero in gioco le leggi della meccanica quantistica e non si riuscirebbe più
nemmeno a stabilire la posizione degli elettroni che sovrintendono le operazioni logiche.
La legge di Moore sembrerebbe insomma avere se non i giorni quanto meno gli anni contati. Per
quanto i produttori di microprocessori di adopereranno nello sviluppo di soluzioni avanzate per
strutturare i chip, mantenendo così in vita la legge di Moore, ci sarà un momento in cui ci si renderà
conto di come non ci sia più alcun margine per "tirare la corda". Anche se si utilizzeranno design
3D nelle CPU di "ultimo grido", osserva Kaku, non ci si potrà sottrarre al destino che attende la
legge di Moore e, più in generale, ammettere che l'era del silicio stia ormai volgendo al termine.
Esprimendosi sul quantum computing, tecnologia che nasce dall'unione fra teoria dell'informazione
classica, informatica e fisica quantistica, Kaku ha dichiarato che i problemi da risolvere sono ancora
enormi e che non si potrà avere nulla di sufficientemente maturo se non prima dell'ultima parte del
21esimo secolo.
Va comunque osservato come fu lo stesso Gordon Moore, nel 2005, a riconoscere come la sua legge
si riferisse più ad aspetti economici che tecnologici. L'informatico statunitense, classe 1929,
alludeva al fatto che l'industria dei microprocessori ha di fatto seguito, nel corso degli anni, la curva
fissata dalla sua legge soprattutto per stabilire degli obiettivi e mantenere il passo con le richieste
del mercato.
Fonte: www.ilsoftware.it/articoli.asp?tag=La-legge-di-Moore-e-ormai...