il pc prossimo venturo: come cambierà il personal

IL PC PROSSIMO VENTURO:
COME CAMBIERÀ IL PERSONAL
COMPUTER NEI PROSSIMI QUINDICI
ANNI
di Marco Pancotti
In collaborazione con
Tavola dei contenuti
Premessa ......................................................................................................................... 3
1.
2.
Le previsioni a medio periodo ................................................................................... 4
1.1.
Il ciclo di vita di una tecnologia ....................................................................... 5
1.2.
Torniamo indietro di una decina di anni.......................................................... 8
1.3.
La fantastica corsa della capacità di calcolo di un Personal Computer ......... 9
Come cambierà la fisionomia del Personal Computer............................................ 12
2.1.
La differenziazione e specializzazione dei device ........................................ 13
2.2.
Le innovazioni sui dispositivi di visualizzazione dell'immagine .................... 15
La tecnologia OLED...........................................................................................16
L’Augmented Reality..........................................................................................17
2.3.
La miniaturizzazione ..................................................................................... 20
3.
Conclusioni.............................................................................................................. 22
4.
Glossario ................................................................................................................. 24
Tavola delle figure
Figura 1 – Le curve a S dello sviluppo della tecnologia................................................... 7
Figura 2 – L’evoluzione della potenza di calcolo a parità di costo di apparato.............. 12
Figura 3 – Nuovi device specializzati............................................................................. 14
Figura 4 – Esempio di un dispositivo di lettura basato su schermo OLED.................... 17
Figura 5 – Impiego dell’Augmented Reality nell’ambito dell’industria............................ 18
Figura 6 – L’impiego dell’Augmented Reality in ambito chirurgico ................................ 19
Pagina 2 di 26
Figura 7 – Un’ipotesi industriale di miniaturizzazione di un PC ..................................... 21
Figura 8 – Una tastiera virtuale già disponibile in commercio ....................................... 21
Premessa
Questo dossier è il primo di una terna finalizzata a valutare quali evoluzioni ci attendono
nell’ambito di tre tecnologie che caratterizzano l’attuale mercato dell’Information
Technology. I tre dossier avranno come traguardo l’anno 2020, con tappe intermedie nel
2010 e nel 2015. Una previsione che cerchi di andare oltre i 15 anni, come verrà meglio
spiegato in seguito, ha infatti pochissime possibilità di trovare riscontri e finisce
inevitabilmente con l’essere, allo stesso tempo, eccessivamente pessimistica su alcuni e
ottimistica su altri aspetti.
Questo dossier cercherà di valutare lo sviluppo previsto nell’ambito del Personal
Computing, cioè degli strumenti di produttività e comunicazione personale che oggi si
manifestano sotto forma d PC desktop, notebook, palmari e telefonini intelligenti. Il
secondo dossier cercherà di scrutare nel futuro dell’interconnettività, sia essa basata sulla
connessione via cavo, sia essa fornita tramite dispositivi radio. Il terzo dossier esaminerà
le prospettive dell’Intelligenza Artificiale e della Robotica, termini che ebbero una loro
notorietà negli anni ‘80 e che, a causa di alcune delusioni, sembrano da tempo
accantonati. Come invece dimostrerò, vi sono diversi motivi per credere che si tratti di
tecnologie destinata a rientrare prepotentemente in campo e ad essere tra gli attori
principali dello sviluppo economico del secolo in corso.
La piccola e media impresa dovrebbe prestare grande attenzione a questi temi, in quanto
l’impatto sul suo quotidiano è ben superiore a quanto normalmente si creda.
Una parte degli imprenditori ha a che fare con lo sviluppo delle tecnologie informatiche in
quanto queste entrano nei suoi prodotti o in quelli dei suoi concorrenti, cambiandone la
fisionomie e introducendo dei gap funzionali in grado di cambiare il contesto competitivo.
La parte restante comunque utilizza la tecnologia nel suo lavoro quotidiano, investe parte
dei suoi ricavi in infrastrutture tecnologiche e può vedere la produttività propria e dei
Pagina 3 di 26
propri collaboratori potenziata o mortificata come conseguenza del buon o del cattivo uso
della tecnologia.
Obiettivo de questa serie di dossier è fornire al lettore una serie di importanti chiavi di
lettura sulla evoluzione tecnologica, rilevanti tanto a fini culturali quanto a fini pratici e
operativi e in particolare che:
•
la tecnologia è come un’onda che va cavalcata come il surfista cavalca l’onda
dell’oceano. Standoci davanti si viene spazzati via, ma standoci dietro si rimane fermi
a guardare gli altri correre sorretti da un’inesauribile energia.
•
per cavalcare la tecnologia occorre seguirne lo sviluppo e coglierne le tendenze,
cercando di investire sull’emergente, accettando come inevitabili alcuni sprechi, e
imparando ad accettare come fisiologico che qualunque investimento si sia fatto in
innovazione, questo apparirà obsoleto dopo pochi anni. Ma ricordandosi che se non lo
si fosse fatto ad essere obsoleta sarebbe l’intera propria azienda
•
le tecnologie, al giorno d’oggi, tendono a compenetrarsi e ad aiutarsi l’una con l’altra
molto più di un tempo.
Tutti i settori saranno colpiti violentemente dallo sviluppo
della genetica, delle nanotecnologie e della robotica, e l’effetto sui mercati sarà di
gran lunga superiore a quello che ha comportato l’arrivo dell’offerta Cinese. Nessun
imprenditore, per quanto piccolo sia, si deve sentire esentato dal capire questi trend,
così come colpevoli sono stati quegli imprenditori che quindici anni fa non hanno
osservato con attenzione l’esplosività dello sviluppo cinese e compreso in tempo le
conseguenze che questo avrebbe avuto sui mercati internazionali
•
cavalcare la tecnologia può anche voler dire, nel quotidiano, seguire lo sviluppo di
beni ormai familiari come un banale PC o la connettività Internet, per cogliere come
meglio orientare i propri investimenti e come predisporre un contesto aziendale in
grado di accogliere le novità senza traumi.
1. Le previsioni a medio periodo
Come già accennato, vi è sempre una certa preoccupazione, da parte di un analista di
mercato, nell’accingersi a fare previsioni di tendenza che superino i due/tre anni. I più
prudenti, infatti, si limitano a raccogliere i dati sui fenomeni in corso e ad elaborarli in
Pagina 4 di 26
sofisticate statistiche, emettendo indiscutibili giudizi su ciò che è appena successo e
sbilanciandosi a fare previsioni solo per l’immediato futuro.
Alcuni coraggiosi provano ad estrapolare tendenze che arrivino al massimo al successivo
quinquennio applicando semplici analisi di trend e sperando che, nel frattempo, non
vengano introdotti nel mercato mutamenti tali da cambiare il contesto competitivo.
I più temerari provano a spingersi più avanti, ben consci che, così facendo, le innovazioni
capaci di rivoluzionare il contesto competitivo vi saranno sicuramente, e che per alcune di
esse è impossibile essere preveggenti perché nascono e si diffondono in modo
imprevedibile ed esplosivo. Vi sono però tecnologie rivoluzionarie che hanno avuto un
lungo periodo di incubazione (Internet è una di esse), per le quali un attento analista
avrebbe potuto immaginare la diffusione applicando dei semplici ragionamenti.
L’errore che si fa, normalmente, nello spingere l’analisi nel tempo, può essere duplice.
Spesso, infatti, si tende a sovrastimare l'evoluzione possibile nel breve periodo (3-5 anni)
e a sottostimare l'evoluzione che sarà possibile nell'arco di 10/15 anni.
Nel mondo dei computer, poi, vi sono innumerevoli aneddoti sulla scarsa visione delle
possibilità offerte da questa tecnologia. A Thomas J. Watson, fondatore dell'IBM,
è
attribuita una previsione, risalente al 1943, secondo la quale, nel mondo, ci sarebbe stato
spazio, al massimo, per ... 5 computer!
A Bill Gates si attribuiscono frasi come “640 K di memoria sono sufficienti per chiunque”,
oppure “ 2GBytes di spazio su disco sono più che adeguati per le esigenze di qualunque
utente di PC”. Frasi, al dire il vero, che Bill Gates ha smentito di aver mai detto e di cui
non vi è traccia documentale, ma che sono entrate a far parte di quelle leggende
metropolitane che circondano da tempo questo personaggio.
Proveremo quindi, con cautela ed equilibrio, a spingere il nostro sguardo nei prossimi
quindici anni, basando la nostra analisi sui trend in corso e sulle tecnologie in via di
sviluppo, consapevoli che qualcosa sicuramente ci sfuggirà ma sicuri di poter comunque
dare indicazioni utili a chi ha interesse in questo mercato.
1.1. Il ciclo di vita di una tecnologia
Prima di entrare nel vivo del tema, occorre comprendere in che modo si evolve una
qualunque tecnologia. Riassumendo quanto espresso dallo scienziato americano Ray
Pagina 5 di 26
Kurzweil nel suo “The Law of Time and Chaos”, si possono, in generale, identificare sette
fasi attraversate da qualunque tecnologia che abbia raggiunto una qualche maturità:
1. Il primo stadio di sviluppo è quello della visione. La ricerca scientifica rende plausibile
un certo scenario e i visionari, spesso nel dileggio generale, indicano potenzialità
astratte a fronte delle quali non c'è nulla di inventato e, tanto meno, di funzionante.
In questa fase era Leonardo, quando disegnava elicotteri e automobili, o Giulio
Verne, quando immaginava di andare sulla Luna o di viaggiare in sottomarino.
2. Il secondo stadio è quello dell'invenzione, che spesso è considerato l'atto di nascita
di una tecnologia. E come tutti i neonati, la nuova tecnologia, in questo stadio,
spesso si limita a vagire, ingurgitare risorse e richiedere infinite attenzioni. Ad
ammirarla sono solo i genitori e chi, tra gli osservatori, riesce a vedere le potenzialità
dell'adulto nel corpo del bambino.
3. Il terzo stadio è quello dello sviluppo, durante il quale la tecnologia è supportata e
protetta da entusiasti sostenitori, oltre che dagli inventori stessi. Spesso durante
questa fase vengono introdotti miglioramenti vitali per il successo dell'invenzione. Si
pensi, ad esempio, all'organizzazione introdotta da Henry Ford nella produzione
dell'automobile. Prima c'erano centinaia di officine artigianali, dopo un'industria.
4. Il quarto stadio, quello della maturità, è quello in cui una tecnologia è ormai parte del
mondo e del pensiero comune. Talvolta, come nel caso della televisione o del
telefono, sembra quasi impossibile di aver potuto fare a meno di quello che, in fondo,
fino a poche decine di anni prima non esisteva proprio. In questa fase la maggior
parte della gente crede che la nuova tecnologia sia destinata a vivere per sempre, e
guarda con scetticismo al sorgere di novità che promettono di incrinarne il dominio.
5. Il quinto stadio è quello dei falsi pretendenti. Una nuova tecnologia minaccia di
eclissare quella ormai matura, ma, specie all'inizio, non è in grado di sostituirla
veramente, per mancanza di funzionalità o qualità. I primi fallimenti consolidano
l'opinione dei conservatori, che vedono in essi la dimostrazione dell'insostituibilità
della tecnologia matura.
6. Nel sesto stadio una nuova minaccia, superate le difficoltà che hanno minato i falsi
pretendenti, comincia ad evidenziare i difetti e l'obsolescenza della tecnologia
matura. Comincia il declino della vecchia tecnologia, mentre la novità conquista
gradualmente il gradimento dei consumatori, prima di quelli con atteggiamento più
innovatore e poi, strada facendo, quelli più conservatori.
Pagina 6 di 26
7. Nel settimo stadio la vecchia tecnologia sopravvive solo o in particolari nicchie, o
nell'interesse di amatori, o per utilizzi particolari. È il caso delle carrozze a cavallo,
dei dischi in vinile, dell'arpicordo e delle macchine da scrivere meccaniche.
Tutto questo deve essere ben compreso prima di usare gli avverbi “mai” e “sempre”
quando si parla del futuro di prodotti e tecnologie. Ricordiamoci che quasi tutto quello
che ci circonda, andando abbastanza indietro nel tempo, non esisteva, e che tutto prima
o poi verrà sostituito da qualcos'altro, anche se al momento facciamo fatica ad
immaginare da che cosa.
Figura 1 – Le curve a S dello sviluppo della tecnologia
Inoltre dobbiamo imparare a capire che l'evoluzione di una qualunque tecnologia non è
mai lineare, anche se talvolta noi la percepiamo come tale. Piuttosto avanza come una
serie di onde a forma di S. Ogni onda eleva il livello di performance, per poi appiattirsi, in
attesa dell'onda successiva. Nelle fasi iniziali e finali dell'onda il miglioramento della
tecnologia è lento, mentre nelle fasi centrali è rapido e impetuoso. Pensiamo ad
esperienze recenti, che tutti noi abbiamo vissuto, come i CD-ROM, i telefoni cellulari o i
video a cristalli liquidi.
Pagina 7 di 26
1.2. Torniamo indietro di una decina di anni
Prima di addentrarci nelle previsioni per i prossimi quindici anni, vediamo l’esito di una
previsione fatta dieci anni fa da un personaggio sulla cui autorevolezza non vi sono
dubbi. Nel Settembre del 1995, in occasione del lancio di Windows 95, la Rai intervistò
Bill Gates sul futuro del PC. L'intervista, per chi fosse curioso, è visualizzabile per intero
all'indirizzo http://www.mediamente.rai.it/home/bibliote/intervis/g/gates.htm. Mi limiterò, in questo testo, a coglierne alcuni passaggi essenziali.
Gates, innanzitutto, forte dei 50 milioni di PC appena venduti nel 1994, vedeva la
possibilità che, nel mondo, fossero venduti più di 100 milioni di PC nei cinque anni a
seguire. In effetti la previsione fu pessimista. Nell'Aprile del 2006 Gartner Dataquest ha
stimato che, nel mondo, siano operativi 1 miliardo di PC, numero destinato a raddoppiare
entro la fine del 2008. Viene da sorridere pensando a quando, nel 1983, la rivista
americana Time proclamò il PC come “uomo dell'anno” solo perché ne erano stati venduti
un milione di unità.
Al tempo dell'intervista a Gates, il 60% dei PC venduti erano dei Pentium a 100 Mhz. Il
clock, uno degli elementi determinanti le performance di un PC, era quindi 30 volte più
lento di quello che viene fornito oggi spendendo circa 500 Euro. Considerando che, nel
frattempo, tutto ciò che sta attorno al processore è decisamente più veloce, non si
sbaglia a valutare il PC di un odierno utente medio di potenza almeno 100 volte superiore
a quello in circolazione allora. Gates, consapevole della rapidità dello sviluppo della
tecnologia hardware, non ebbe quindi difficoltà ad immaginare l'utilizzo del PC per la
riproduzione di video, per videoconferenze e per grafica tridimensionale, cosa poi
effettivamente avvenuta.
Anche sulla disponibilità della banda larga Gates fu un poco pessimista. Mentre, in quel
momento, auspicava lo sviluppo della tecnologia ISDN a 28.200 bps, con cui sarebbe
stato possibile visualizzare le immagini da Internet, Gates immaginava una vasta
disponibilità di banda larga che, a suo parere, sarebbe stata disponibile in una decina
d'anni. In realtà nel mondo occidentale l'offerta casalinga di ADSL iniziò solo 5/6 anni
dopo, e dall'inizio di questo decennio in una città come Milano, grazie alla fibra ottica, è
possibile accedere a costi accettabili a quella connettività a 10Mbs allora vagheggiata
come un sogno quasi impossibile.
Anche sull'impatto che Internet avrebbe avuto sullo sviluppo del PC, Bill Gates azzeccò,
nella sostanza, le previsioni. Ecco un passaggio dell'immagine che diede dell'utilizzo della
posta elettronica, strumento allora utilizzato da pochissime aziende.
Pagina 8 di 26
“ Una volta introdotta la posta elettronica, si utilizzerà inizialmente soltanto per lo
scambio di messaggi, ma dopo poco si inizierà ad inviare fogli elettronici. Invece di
stampare i risultati aziendali, questi si spediranno elettronicamente. Si trasferirà la
modulistica cartacea in equivalenti elettronici, semplificando la compilazione dei moduli
interni dell'azienda. Esattamente lo stesso succederà tra le aziende e i loro clienti,
quando questi disporranno sempre più di personal computer. I clienti pretenderanno di
ottenere informazioni sui prodotti e il loro stato di produzione, di riempire moduli oppure
di ottenere un collegamento voce o video con qualcuno che li possa aiutare,
semplicemente facendo clic su un pulsante “.
Sorprendentemente esatto, anzi, si può dire che, pensando ad alcune applicazioni di webcasting o di trading online, la realtà ha abbondantemente superato le previsioni, anche
quelle fatte da una persona naturalmente portato ad avere una visione positiva.
Per sapere cosa pensa Bill Gates oggi circa il futuro del PC in azienda si può leggere la
sua risposta ad un articolo del noto analista Nicholas G. Carr dal funereo titolo “Requiem
per il PC aziendale” . In questo articolo Gates evidenzia come, al giorno d'oggi, il PC sia
diventato un elemento di un ricco ecosistema fatto, oltre che dai desktop, da datacenter,
da notebook, da palmari e da telefoni intelligenti. Accedere alle informazioni è oggi
possibile quasi dappertutto, anche per strada o quando si vola in aereo (anche se, per il
momento, su ben poche tratte). Le applicazioni destinate alla produttività individuale si
sono evolute in applicazioni a supporto del lavoro di gruppo, ma la capacità di un PC di
lavorare in modo autonomo e, allo stesso tempo, connesso col resto della rete di
collaborazione di cui l'utente del PC fa parte, lo rende uno strumento insostituibile.
Questa volta Gates non entra nel dettaglio di quali tecnologie vede come trainanti, ma
indica nell'ecosistema stesso, e nel suo sfruttamento, la chiave di lettura di cosa
succederà del PC nel futuro.
1.3. La fantastica corsa della capacità di calcolo di un
Personal Computer
Il mondo del computer è soggetto da ormai trent'anni alla legge di Moore1. Il raddoppio
a cadenze fisse ha innescato un andamento di tipo esponenziale, che è stato il fattore
1
Gordon Moore, presidente dell'Intel e uno dei padri del microprocessore, osservò che
l'industria da lui guidata era in grado di incrementare del doppio, ogni 24 mesi, il numero dei
Pagina 9 di 26
trainante dell'impetuoso sviluppo dell'Information Technology negli ultimi trent'anni.
Poiché la legge di Moore, sia pure con tempi di raddoppio delle capacità varianti da
settore a settore, ha interessato praticamente tutta l'elettronica a stato solido,
traguardando
il
2020,
come
ha
fatto
l'International
Technology
Roadmap
for
Semiconductors, noi possiamo calcolare che:
•
la quantità di RAM per Dollaro passerà dagli attuali 10 MB (una Ram da 1GB
costa, oggi, all'incirca 100 Dollari) a 50 MB nel 2010, a 100 MB poco prima del
2015 e 1000 MB nel 2020. Per quella data un normale PC potrà quindi essere
tranquillamente equipaggiato da 100 GB di memoria che sarà, nel frattempo,
almeno 20 volte più veloce di quella attuale.
•
La velocità dei processori, oggi attorno ai 3 Ghz, passerà a 10 Ghz nel 2010, a 50
Ghz nel 2015 e a 100 Ghz nel 2020. Ciò sarà ottenuto anche grazie all'uso
industriale di nuove tecnologie produttive, oggi allo stadio di sviluppo, su cui i
grandi produttori stanno investendo.
•
Le performance generali di un processore attuale di fascia alta, diciamo un Intel
Xeon, utilizzato in computer dal costo di poche migliaia di Euro, è attorno ai
10.000 MIPS (Milioni di operazioni per secondo). All'attuale trend, che vede un
raddoppio ogni 18,5 mesi, avremo 60.000 MIPS nel 2010, 640.000 MIPS nel 2015
e 1 milione di MIPS nel 2020. Un PC da 3.000 Euro potrà quindi essere 100 volte
più potente del suo equivalente odierno, a parità di prezzo. Abbastanza potente,
quindi,
da
poter
ospitare
applicazioni
di
Intelligenza
Artificiale
come
il
riconoscimento del parlato e dell’immagine.
•
Il raddoppio della capacità dello storage ogni 18 mesi è il trend anche per la
memoria disponibile su disco fisso. Se con 100 Euro è oggi possibile acquistare
circa 100 GB di memoria, nel 2010 si potrà acquistare, con gli stessi 100 Euro, 1
Terabyte, nel 2015 6 Terabyte e nel 2020 1.000 Terabyte. Più o meno
l'equivalente, in forma digitalizzata, dell'intera produzione umana di pittura,
scrittura, musica, cinema, teatro e televisione. In realtà, in questo campo, le
prospettive sono ancora più interessanti perché le ricerche in corso nell'ambito
della memorizzazione delle informazioni sono prossime ad introdurre innovazioni
in grado di accelerare il trend. Ad esempio, è atteso per fine anno un nuovo DVD
con velocità di scrittura di 20MB/s basato su tecnologia olografica, in grado di
transistor presenti in un circuito integrato, il che, grossolanamente, significava raddoppiarne la
potenza.
Pagina 10 di 26
ospitare 300 GB su un formato equivalente ad un odierno DVD. Entro 5 anni la
società produttrice ritiene di poter introdurre sul mercato supporti DVD da 1,6
Terabyte.
•
Interessante è osservare il trend preso da una tecnologia molto recente, quella
delle flash memory, in grado di affiancare, se non di sostituire, i dischi fissi. A
parità di costo (all'incirca 50 Euro) le Flash memory stanno raddoppiando la
capacità ogni anno. Attualmente per 50 Euro si compra 1 Gbyte di memoria, nel
2010 si compreranno 10 Gbyte, nel 2015 300 Gbyte e nel 2020 10 Terabyte. Non
è escluso, quindi, che in futuro l'industria smetta di montare dischi a tecnologia
meccanica sui PC portatili, in quanto, già a partire dal 2015, le capacità di
memoria garantite dalla tecnologia Flash saranno più che sufficienti, con grande
vantaggio per l'autonomia e per la robustezza dei computer.
In termini di potenza di calcolo e di memorizzazione dei dati, il computer sta evolvendo a
velocità tale da rendere possibile traguardare all'interno del secolo in corso, e
precisamente attorno al 2020, il momento in cui verrà raggiunta la capacità transazionale
del cervello umano, stimata in circa un milione di MIPS (un MIPS è pari a un milione di
transazioni per secondo).
Qualunque scienziato sarà pronto ad obiettare che il modo di lavorare del cervello non
può essere tradotto in un indicatore così rudimentale come il MIPS. Eppure il raggiungere
la capacità transazionale è comunque un traguardo importante. Il resto, per poter
avvicinare o simulare le modalità di comportamento umano, sarà dato dalla nuova
generazione di software, di cui parleremo nell'articolo dedicato alle prospettive delle
ricerche nell'ambito dell'Intelligenza Artificiale e della Robotica. Come vedremo, vi sono
buone probabilità che il test di Turino venga superato attorno al 2040. Per quella data, in
altre parole, vi saranno computer che adeguatamente programmati potranno interagire
con un uomo tramite voce o scritto senza che questi possa riconoscere il fatto che ad
interagire con lui sia una macchina o un uomo.
Pagina 11 di 26
Figura 2 – L’evoluzione della potenza di calcolo a parità di costo di apparato
Per ora, giusto per il gusto della provocazione, mi limito ad osservare che proiettando
l'evoluzione della capacità di calcolo dopo il 2020 possiamo calcolare che, all'incirca nel
2060, un computer da 1.000 Dollari avrà la capacità transazionale dell'intero genere
umano, e nel 2100 una capacità transazionale superiore di svariati milioni di miliardi di
volte a quella dell'intero genere umano (per la precisione 10 seguito da 35 zeri volte
superiore). Ma di questo, ripeto, ne parleremo un'altra volta.
2. Come cambierà la fisionomia del Personal Computer
La capacità di calcolo e di memorizzazione dei prossimi PC è un elemento interessante,
ma non può bastare per comprendere e ipotizzare le innovazioni che stanno per entrare
in questo segmento dell'Information Technology.
Pagina 12 di 26
Quando parliamo di un PC, alla nostra mente va normalmente l’immagine di uno
scatolotto con attaccato un video, una tastiera e una stampante, come quello che
abbiamo a casa o in ufficio. O al più, considerato che in termini di valore oggi le vendite
mondiali di PC sono divise equamente tra desktop e notebook, l’immagine di un portatile.
Come ben ha osservato Bill Gates, la domanda di informatica individuale a cui il PC ha
risposto sino ad oggi verrà soddisfatta nel futuro da un complesso ecosistema di
dispositivi specializzati, che condivideranno una capacità di connettersi tra loro e di
scambiarsi i dati, ma che saranno fisicamente diversi e destinati ad assolvere molto bene
un insieme limitato di compiti.
2.1. La differenziazione e specializzazione dei device
La sostituzione del PC con un ecosistema destinato a diverse funzioni specializzate è già
iniziata. La domanda di mobilità è stata già parzialmente soddisfatta dalla nascita dei
notebook e, più recentemente, degli ultraleggeri (portatili sotto i due chili). A questi si
sono aggiunti, da quasi dieci anni, i palmtop, computer dalle capacità molto limitate ma
dalle dimensioni, peso e consumo ridottissimi.
Da pochi anni sono disponibili palmtop più potenti, dalle capacità paragonabili a quelle di
un PC di 10 anni fa. Alcuni di essi hanno mantenuto una funzionalità generica, mentre
altri, tra cui il Blackberry, si sono specializzati nelle applicazioni di connettività Internet e,
in particolare, sull’eMail.
I telefoni cellulari, nel frattempo, hanno acquisito abbastanza potenza di calcolo da
essere dotati di un sistema operativo, di uno schermo, di un impianto fotografico e di una
connettività verso Internet. E a loro fianco sono nati altri dispositivi specializzati, come il
famoso IPod, per la gestione di musica, foto e filmati.
Gli IPod più recenti, privi di dischi e schermi, sono leggerissimi e molto piccoli, e
delineano la probabile differenziazione di questo dispositivo tra una linea destinata al solo
ascolto di musica, dall’estrema portabilità e autonomia, e una linea di IPod più versatili
ma, allo stesso tempo, più ingombranti e dai consumi più elevati.
Nel frattempo la Sony ha annunciato, con disponibilità commerciale nella prossima
estate un Reader, cioè un dispositivo piccolo e leggero, dallo schermo dotato delle qualità
di leggibilità simili a quelle della carta stampate, destinato esclusivamente a facilitare la
diffusione dell’editoria elettronica.
Pagina 13 di 26
Figura 3 – Nuovi device specializzati
L’IPod Shuffle, grande come un
pacchetto di chewingum e pesante
pochi grammi
Il Reader della Sony, formato
paperback e 250 grammi per
contenere migliaia di libri
L’Ultra-Mobile PC di Microsoft. Un Pc in
700 g di peso.
Microsoft, invece, ha lanciato un Ultra-Mobile PC, dispositivo da 7 pollici e dal peso di
poco più di 900 grammi, con connettività Wi-fi e Bluetooth, touch-screen e risoluzione
800x480. Secondo i piani della società di Redmond questo nuovo formato dovrebbe
permettere una fruibilità molto più vasta del PC, che sarebbe così utilizzabile in molte più
circostanze in quanto trasportabile e impugnabile senza le difficoltà di un PC dalla forma
e dal peso tradizionale.
Questa tendenza alla differenziazione e alla specializzazione non è destinata a esaurirsi.
Già a suo tempo Donald Norman, nel suo libro “Il Computer Invisibile”, ipotizzava la
trasformazione del PC da un oggetto multi-funzione ingombrante, scomodo, che richiede
addestramento e che si dimostra fondamentalmente inaffidabile, in un insieme di
dispositivi
invisibili,
al
servizio
dell’uomo,
dall’utilizzo
istintivo,
naturale
e
prevalentemente automatico, come sono l’ABS di un’automobile o l’elettronica che sta
sotto un cellulare.
Pagina 14 di 26
È probabile, quindi, che la tendenza in corso veda un’ulteriore accelerazione e che nei
prossimi quindici anni le funzioni oggi comprese in un PC si frantumino in una miriade di
dispositivi dalle dimensioni minuscole, talvolta indossabili o calzabili come un berretto o
un paio di occhiali, interconnessi tra di loro e con Internet in modo da cooperare nel
rendere il miglior servizio possibile all’uomo.
Su quest’ultimo punto si giocherà buona parte dell’innovatività dei dispositivi che
verranno immessi sul mercato nei prossimi anni. Entro il 2015 tutti i dispositivi che ci
circonderanno potranno riconoscersi tra loro e condividere dati e funzionalità, come già in
parte avviene tra palmtop, notebook e cellulari, che condividono agende e rubriche. Nel
2020 sarà probabilmente difficile riconoscere con chiarezza quali saranno i componenti
con cui interagiremo nell’ambito del Personal Computing. Così come oggi, quando
guidiamo un’automobile di ultima generazione, non siamo consapevoli dell’intervento di
iniezione elettronica, servosterzo, EPS, ABS, e delle decine di altre diavolerie che ci
assistono quando siamo al volante, così un giorno telefoneremo, vedremo filmati, faremo
calcoli, scriveremo testi e ascolteremo musica senza sapere quale, esattamente, dei
dispositivi che avremo con noi sta rispondendo alla nostra richiesta.
2.2. Le innovazioni sui dispositivi di visualizzazione
dell'immagine
La visualizzazione dei dati e, più recentemente, dell'immagine, è stato, allo stesso tempo,
uno dei fattori più importanti nel determinare il successo del PC e il motivo per cui il suo
impiego è sostanzialmente limitato.
Negli anni 80, quando apparvero i primi PC, lo schermo riportava 24 righe da 80 caratteri
ciascuno. In mancanza di specifiche schede grafiche, apparse come prodotti a se stanti e
inizialmente non comprese nei PC in configurazione base, si potevano visualizzare solo
dei testi.
Dopo pochi anni le capacità grafiche furono fornite anche nelle configurazioni base, ma i
video erano piccoli (14 pollici), a bassa risoluzione (640x480) e basati esclusivamente su
tecnologia CRT, cioè simile a quella utilizzata dalla televisione. A partire dalla fine degli
anni ‘90 è cominciata la diffusione degli schermi LCD sia sui portatili, sia sui fissi, dove il
mercato è ormai dominato dai formati a 17 e 19 pollici con risoluzioni che prevedono
circa un milione di pixel divisi più o meno equamente tra altezza e larghezza.
Pagina 15 di 26
Il
cristallo
liquido
ha
migliorato
enormemente
l’ergonomia
dei
dispositivi
di
visualizzazione, ma lascia aperto i problemi legati al contrasto ed alla densità di
risoluzione. Un libro ben stampato ha un contrasto tra inchiostro e carta pari a 120/1,
mentre un video di alta qualità a stento raggiunge la metà di questo valore. Allo stesso
tempo in un libro i dpi (dot per inch, cioè numero di punti neri presenti in un’unità di
superficie) hanno un valore che va da 600 a 1000, mentre in un LCD sono circa un
decimo. In altre parole la carta è ancora decisamente più leggibile e riposante di un
qualunque video.
La marcia, lenta ma inesorabile, verso una visualizzazione sempre più ergonomica ha
quindi necessità di un ulteriore salto tecnologico. Questo salto sarà possibile grazie
all’impiego, anche in video di grande dimensione, di tecnologie della famiglia OLED.
Una rappresentazione di come potrà apparire un PC avente un video basato su tecnologia
OLED e riportata nell’immagine sottostante.
La tecnologia OLED
L’acronimo OLED sta per Organic Light-Emitting Diode. Gli OLED sono dei film organici
elettroluminescenti dello spessore di qualche decina di nanometri che sostituiranno i
cristalli liquidi nei display di prossima generazione per apparecchi portatili. Essi sono
sottili, brillanti, ad ampio angolo visivo e a basso consumo. Potranno essere incorporati in
oggetti flessibili quali tessuti, giocattoli, elementi di arredamento. Il fenomeno fisico su
cui sono basati i dispositivi OLED consiste nell'emissione di radiazione elettromagnetica
provocata da un campo elettrico applicato ad un solido (elettroluminescenza).
Una delle caratteristiche più interessanti della tecnologia OLED è il fatto che è possibile
costruire degli schermi OLED piegabili e arrotolabili. Inoltre potranno essere trasparenti,
e quindi applicabili come strato superiore di altri oggetti, permettendo applicazioni oggi
inimmaginabili.
Schermi OLED a matrice passiva sono oggi già impiegati nell’ambito dei telefoni cellulari
e dei lettori MP3. Entro il 2010 saranno parte dell’offerta anche per schermi da PC
portatile, e finiranno col sostituire completamente l’attuale LCD entro il 2020.
Pagina 16 di 26
Figura 4 – Esempio di un dispositivo di lettura basato su schermo OLED
È probabile che lo sviluppo della tecnologia OLED faccia nascere una famiglia di reader ad
altissima qualità, costantemente connessi ad Internet, in grado di fare il download di libri
e giornali e di permetterne la lettura con la stessa comodità con cui oggi si sfoglia la
carta. L’editoria elettronica, che per ora è stata una promessa mancata, potrà così
svilupparsi
rivoluzionando
il
mercato
e
creando
nuove
prospettive
di
fruibilità
dell’informazione e della cultura.
L’Augmented Reality
Sul fronte della visualizzazione vi è un’altra tecnologia che è da anni in attesa del suo
momento e che, per ora, è utilizzata solo nell’ambito di applicazioni di nicchia. Si tratta
dell’AR, acronimo per Augmented Reality o Realtà Aumentata.
La
realtà
aumentata
consiste
nell'aggiungere
alla
normale
visione
informazioni
contestualizzate generate dal computer. La maggior parte della ricerca sull'AR si sta
adesso concentrando sulla messa a punto di leggeri e confortevoli visori "see-through"
Pagina 17 di 26
(guarda-attraverso), capaci di sovraimporre grafici, scritte e immagini di sintesi alla
normale visione dell'utente arricchendola di utili informazioni.
I sistemi di AR tracciano la posizione e l'orientamento della testa dell'utente in modo da
poter allineare correttamente le immagini di sintesi al punto di vista dell'utente. Con
queste informazioni, il sistema grafico può sovraimporre un'immagine tridimensionale di
una tazzina da tè, per esempio, in cima a un piattino reale e mantenere la tazza virtuale
perfettamente allineata al piattino indipendentemente dalla posizione dell'utente nella
stanza e dalla posizione del piattino stesso.
I sistemi di AR impiegano alcune delle tecnologie usate nei sistemi di realtà virtuale, ma
con una differenza cruciale: che la realtà virtuale mira a sostituire il mondo reale, la
realtà aumentata mira ad arricchire la realtà di informazioni utili per l'espletamento di
compiti complessi.
In ambito militare questa tecnologia è già abbondantemente utilizzata nei sistemi di
puntamento a disposizione dei piloti di elicottero, che mirano l’obiettivo con semplici
spostamenti del capo. Ma vi sono possibilità di impiego in ambito civile ben più
interessanti.
Figura 5 – Impiego dell’Augmented Reality nell’ambito dell’industria
Ad esempio, una persona addetta alla manutenzione potrebbe avere un sistema AR che
mette in evidenza i passi da espletare per il controllo di una apparecchiatura e che
evidenzia le componenti da sostituire o controllare. Un operaio in un grosso cantiere
potrebbe vedere direttamente sul campo i compiti da svolgere in sincronia con altre
Pagina 18 di 26
centinaia di colleghi. Un chirurgo potrebbe avere impresso sopra il paziente la visione a
raggi X o una tomografia assiale o una ecografia, tutte informazioni utilissime per il
trattamento di fratture multiple, operazioni in laparoscopia, operazioni ortopediche, etc.
Figura 6 – L’impiego dell’Augmented Reality in ambito chirurgico
I pompieri potrebbero vedere la disposizione delle stanze di un edificio in fiamme e
conoscere in anticipo le vie di fuga. E ancora altre applicazioni potrebbero essere
sviluppate nell'ambito dei beni culturali, del turismo, della navigazione aerea.
Anche se la realtà aumentata può sembrare roba da fantascienza, i ricercatori hanno
lavorato sullo sviluppo di questi sistemi per più di tre decenni. Il primo prototipo è stato
sviluppato negli anni '60 dai collaboratori del pionieristico Ivan Sutherland all'università di
Harvard e di Utah. Negli anni '70 e negli anni '80 un piccolo numero di ricercatori ha
studiato AR presso il laboratorio Armstrong dell'USAF, il centro di ricerca della NASA
Ames e l'università della Carolina del Nord. All'inizio degli anni '90 è stato coniato il
termine "realtà aumentata" dagli scienziati della Boeing che stavano sviluppando un
sistema sperimentale di AR per aiutare gli operai a montare i cablaggi dei collegamenti
nei grossi aerei di linea. Il decennio passato ha visto una fioritura della ricerca sull'AR che
ha coinciso con una forte riduzione dei costi di sviluppo e un aumento della potenza e
della miniaturizzazione dell'hardware.
Fino a oggi la potenza di calcolo necessaria per gestire le applicazioni di AR hanno
relegato questa tecnologia ad ambiti sperimentali o estremamente di nicchia. A partire
dal prossimo decennio è invece plausibile che l’AR sia parte integrante dei dispositivi
Pagina 19 di 26
hardware forniti a supporto dei PC per applicazioni professionali o per il gioco. In
Australia, ad esempio, è stato adattato il famoso gioco di ruolo Doom in ambito AR. I
giocatori, dotati di apparecchiature sperimentali, camminano in spazi reali, ma vedono
comparire “mostri” virtuali contro cui, sempre virtualmente, combattono.
L’OLED e l’AR sono quindi due tecnologie ormai uscite dalla fase dell’invenzione, il cui
sviluppo porterà presto a una rivoluzione nelle modalità in cui i PC gestiranno la
rappresentazione dell’immagine. Mentre l’OLED entrerà nell’offerta dei dispositivi portatili
da qui alla fine del decennio (cosa già avvenuta nell’ambito dei lettori MP3) fino ad essere
la tecnologia dominante dei display dal 2010 al 2015, l’Augmented Reality diventerà
parte dell’offerta a partire dall’inizio del prossimo decennio, per esprimere a pieno le sue
potenzialità verso il 2020.
2.3. La miniaturizzazione
Per capire cosa è successo, in termini di miniaturizzazione negli ultimi vent’anni, basta
pensare che la potenza di calcolo e lo spazio per la memorizzazione dati dell’IPod Shuffle,
il più piccolo sul mercato, quello che si appendono al collo le persone che fanno jogging,
è circa 50 volte superiore a quelli del PC AT che l’IBM presentò in pompa magna nel
1985. Le dimensioni assunte dai PC odierni, sostanzialmente simili a quelle dei PC di
allora, sono condizionati da necessità ergonomiche. Le dita dell’uomo sono troppo grandi
per permettere una rapida digitazione di testi su piccole tastiere e l’occhio gradisce
schermi di grande dimensione, che non stanchino la lettura.
L’industria sta però trovando soluzioni originali alla necessità di un compromesso tra
dimensione e utilizzabilità. A titolo di esempio, ecco una recente proposta che certo non
pecca di mancanza di originalità.
La possibilità di proiettare tastiera e video permette di ridurre le dimensioni del computer
vero e proprio a quelle di una penna infilabile nel taschino. Al momento questa proposta
ha più il sapore di una provocazione che di una vera e propria proposta commerciale.
Pagina 20 di 26
Figura 7 – Un’ipotesi industriale di miniaturizzazione di un PC
Figura 8 – Una tastiera virtuale già disponibile in commercio
,
Anche se esistono già in vendita dispositivi che proiettano tastiere virtuali per palmtop, le
limitazioni in termini di ergonomia rendono improbabile l’uso di questo tipo di interfacce
al di fuori delle condizioni di emergenza. L’uomo, infatti, quando comunica, ha
costantemente bisogno di feedback. Quando parla deve avere segni di ascolto e quando
digita a una tastiera deve avere la sensazione fisica di aver effettivamente premuto il
tasto desiderato. È per questo motivo che le tastiere di alta qualità sono fatte in modo
che il meccanismo sottostante un tasto sia prima cedevole, poi più duro, e infine ancora
cedevole. Il superamento da parte del dito del punto di massima resistenza conferisce il
Pagina 21 di 26
feedback tattile che conferma al cervello l’esecuzione della pressione. Tastiere come
quelle sopra rappresentate non possono dare feedback, e quindi non saranno mai
utilizzate per lunghe sessioni di scrittura.
Ciò non impedirà comunque che per impieghi molto specializzati la miniaturizzazione
permetta, nei prossimi quindici anni, la nascita di dispositivi indossabili o, addirittura,
inseribili nel corpo umano e interconnessi col resto dell’ecosistema di personal
computing.
Ciò avrà prima di tutto applicazioni mediche, in quanto alcuni problemi di sordità e cecità
potranno essere superati più rapidamente tramite ausili elettronici che tramite
applicazioni di biogenetica. Ma col tempo l’idea di inserire dei “potenziatori” di capacità
all’interno del proprio corpo non troverà più le resistenze culturali e psicologiche di oggi.
Si tratta comunque di applicazioni che, a mio parere, si diffonderanno solo dopo il 2020.
Fino a quella data avremo a che fare essenzialmente con dispositivi indossabili (e quindi
non invasivi) o con protesi mediche assimilabili a un pacemaker.
3. Conclusioni
In conclusione, nei prossimi quindici anni assisteremo, nell’ambito del personal computer,
alle seguenti trasformazioni:
1. Il PC così come lo conosciamo oggi diventerà solo uno di tanti modi con cui verrà
soddisfatta la più vasta domanda di personal computing. I già numerosi device
contenenti intelligenza che sono presenti oggi si moltiplicheranno ulteriormente e
ognuno
di loro
andrà
a
occupare
una posizione
specifica
nell’ambito
della
soddisfazione dei bisogni che richiedono supporto computerizzato.
2. Questo
ecosistema
di
device
intelligenti
sarà
al
suo
interno
interconnesso
costantemente in modo automatico e naturale, e a sua volta sarà connesso a
Internet in modo continuativo e trasparente.
3. Le modalità di interfaccia con l’ecosistema di personal computing si semplificheranno
sempre più, fino ad arrivare al punto in cui il computer diventerà sostanzialmente
invisibile, e sarà percepibile solo tramite i servizi offerti.
Pagina 22 di 26
4. La miniaturizzazione raggiungerà limiti tali da permettere l’indossabilità di chip in
oggetti come guanti, occhiali, cinture e scarpe, in modo tale che il device sia
direttamente interfacciato con il corpo umano e che il software possa comprendere
direttamente dal gesto qual è il bisogno da soddisfare (così come l’ABS capisce di
dover entrare in funzione valutando la pressione esercitata sul freno confrontata con
la velocità dell’auto).
5. I dispositivi di visualizzazione saranno di qualità equivalente, se non superiore, alla
carta stampata e permetteranno lo sviluppo di un’editoria elettronica che affiancherà,
se non sostituirà, quella tradizionale. I video scompariranno dai dispositivi portatili, e
saranno sostituiti da “papiri” arrotolabili o piegabili, comodi e leggeri come un foglio
di carta.
6. Alcuni device saranno dotati dell’hardware e del software necessari per applicazione
di Augmented Reality anche per il pubblico generico, e non solo per applicazioni
specialistiche. La dimensione della realtà virtuale diventerà familiare ai bambini del
2020 come quella del videogioco lo è ai bambini di oggi.
Tutto questo può sembrare azzardato, anche ammettendo l’enormità dei progressi
avvenuti negli ultimi quindici anni. Ma può essere addirittura pessimistico, in quanto la
rapidità di sviluppo della tecnologia dei prossimi quindici anni sarà ben diversa da quella
dei quindici anni passati. La geometricità della progressione, infatti, è tale per cui i
progressi realizzabili saranno circa dieci volte maggiori dei progressi riscontrati negli
ultimi quindici anni.
Inoltre lo sviluppo di Cina e India porteranno ad avere circa tre miliardi di potenziali
clienti in più per le applicazioni di personal computing. Ciò metterà in circolazione una
enormità di denaro che permetterà investimenti nello sviluppo di tecnologie alternative di
ordini di grandezza superiori a quelli finora messi in gioco.
Pagina 23 di 26
4.
Glossario
Bluetooth
Bluetooth fornisce un metodo standard, economico e sicuro per scambiare informazioni
tra dispositivi diversi utilizzando onde radio. Questi dispositivi possono essere personal
digital assistant (PDA), telefoni cellulari, portatili, Computer, stampanti, macchine
fotografiche, ecc.
Flash Memory
È una forma di EEPROM (Electrically Erasable Programmable Read-Only Memory) che
permette a multiple locazioni di memoria di essere cancellate e scritte in un’unica
operazione. Assomiglia alla RAM (Random Access Memory) usata per la memoria dei
PC, ma ha la caratteristica di mantenere il suo stato senza bisogno di alimentazione. In
altre parole è, come un disco, non volatile. Occupa meno spazio di un disco e non ha
parti mobili, ma costa troppo per poterne sostituire completamente le funzioni. Allo
stesso tempo è troppo lenta per sostituire la RAM. È però utile laddove servono capacità
limitate di memoria e invece spazio e peso contano, come nell’ambito della fotografia
digitale o dei dispositivi di salvataggio rapido dei dati.
Legge di Moore
La legge di Moore, più che una legge vera e propria, è una osservazione empirica.
Gordon Moore, cofondatore di Intel con Robert Noyce, è lo studioso che ha dato il via alla
corsa all’evoluzione dei processori, grazie alle sue supposizioni, poi diventate leggi,
conosciute proprio come prima e seconda legge di Moore.
Nel 1965 Gordon Moore, che all'epoca era a capo del settore R&D della Fairchild
Semiconductor e tre anni dopo fondò la Intel, scrisse un articolo su una rivista
specializzata nel quale spiegava come nel periodo 1959-1965 il numero di componenti
elettronici (transistor) che formano un chip raddoppiava ogni anno.
La prima legge di Moore dice che le prestazioni dei processori, e il numero di transistor
Pagina 24 di 26
ad esso relativo, raddoppiano ogni 18 mesi.
Nel 1965 Moore suppose che le prestazioni dei microprocessori sarebbero raddoppiate
ogni 12 mesi. Nel 1975 questa previsione si rivelò corretta e prima della fine del decennio
i tempi si allungarono a 2 anni, periodo che rimarrà valido per tutti gli anni Ottanta. La
seconda legge di Moore, che verrà estesa per tutti gli anni Novanta e resterà valida fino
ai nostri giorni, viene riformulata alla fine degli anni Ottanta ed elaborata nella sua forma
definitiva, ovvero le prestazione dei processori raddoppiano ogni 18 mesi.
MIPS
Milioni di Istruzioni per Secondo. È una criticatissima unità di misura delle performance di
un computer oggi sostanzialmente abbandonata, ma ancora utile per valutare la storia
complessiva dell’evoluzione delle capacità di calcolo
Nel 1970, la performance di un minicomputer era comparata usando il VAX MIPS, dove il
modello della Digital VAX 11/780 era considerate la macchina da 1 MIPS. I primi 8086
avevano una potenza di poco inferiore al MIPS, mentre i primi 386 valevano circa 3 MIPS.
Reader
Dispositivo portatile con schermo e device di manipolazione particolarmente adatti alla
rappresentazione di testi digitalizzati. Nel passato vi sono già stati diversi tentativi di
vendere oggetti di questo tipo, ma la scarsa leggibilità dei vecchi schermi ne ha sempre
impedito la diffusione. La nuova generazione di Reader si baserà su nuove tecnologie
come il cosiddetto “inchiostro elettronico” e le tecnologie OLED.
Wi-fi
Abbreviazione di Wireless Fidelity, è il nome commerciale delle reti locali senza fili (WLAN)
basate sulle specifiche IEEE 802.11
Le reti Wi-Fi (Wireless Fidelity) sono infrastrutture relativamente economiche e di veloce
attivazione e permettono di realizzare sistemi flessibili per la trasmissione di dati usando
frequenze radio, estendendo o collegando reti esistenti ovvero creandone di nuove.
Pagina 25 di 26
Documento reperibile, assieme ad altre monografie, nella sezione Dossier del sito
http://www.sanpaoloimprese.com/
Documento pubblicato su licenza MATE s.r.l.
Destinazione >> ....