Università di Camerino Dipartimento di Matematica e Informatica dicembre 2007 Corso sul Web 2.0 (blog, wiki, tag, social networks: cosa sono, come si usano e perchè sono importanti) Docente: Carlo Vaccari Responsabile sviluppo software e tecnologie web - ISTAT Docente di Informatica - Facoltà di Economia “Federico Caffè”, Università di RomaTre [email protected] Il presente materiale è distribuito con la licenza Creative Commons “Attribuzione - Non commerciale - Condividi allo stesso modo - 2.5 Italia”, reperibile presso il seguente sito Internet: http://creativecommons.org/licenses/by-nc-sa/2.5/it/. Programma 11.12 * Presentazione reciproca * Introduzione e programma del corso * Il "vecchio" Web e il Web 2.0 * Caratteristiche generali Web 2.0 * Cos'è un blog * Creazione del blog del corso 12.12 * Caratteristiche dei contenuti del Web 2.0 * Cos'è un wiki * Wikipedia in teoria e in pratica * Discussione e consolidamento blog 13.12 * Caratteristiche tecniche Web 2.0 (Ajax, RSS, ...) * Tagging e Social Network (Flickr, MySpace, ...) in teoria e in pratica * Il mondo Google: docs.google, OpenSocial, Android, ... * Discussione e consolidamento blog 14.12 * Caratteristiche sociali Web 2.0 e dei suoi utenti: numero e caratteristiche * Social bookmarking e mash-up in teoria e in pratica * Discussione e consolidamento blog * Chiusura del corso: cosa fare dopo? Un po' di teoria: Leggi di Metcalfe, Reed e Pareto, curve di potenza, Coda Lunga, teoria delle reti, polemiche e visioni Presentazione Chi siamo e perché siamo qui Esperienze 2.0 Conferma indirizzi mail Esercitazione 1 Web e Web 2.0 http://paolo.evectors.it/italian/worldOfEnds.html : Internet: - ha tre virtù: ● nessuno la possiede ● chiunque la può usare ● ognuno la può migliorare; - non è complicata: semplicità base dell'architettura - non è una cosa, è un protocollo (un “accordo”) - è stupida: il suo non essere intelligente consente alla rete di espandersi e aggirare gli ostacoli - aggiungere valore le toglie valore - tutto il valore di Internet si sviluppa ai margini il Web oggi http://gandalf.it/dati/index.htm Information Revolution http://www.youtube.com/watch?v=-4CV05HyAbM Neutralità della rete: - uguaglianza di tutti i bit; - garanzia di interconnessione; - libertà di accesso. http://it.wikipedia.org/wiki/Neutralit%C3%A0_della_Rete http://www.visionpost.it/files/pdf_vision/vision_08_06.pdf Web 2.0 definizione generale Definizione: v. http://it.wikipedia.org/wiki/Web_2.0 Oppure da http://en.wikipedia.org/wiki/Web_2.0 : “Il termine Web 2.0 fa riferimento a una serie di servizi o comunità percepite come di "seconda generazione" - come siti di "social networking", wiki e folksonomie - che intendono facilitare la collaborazione e lo scambio di informazioni tra gli utenti Web....” Non si sa cos'è ma si misura http://punto-informatico.it/p.aspx?id=1948763 Web 2.0 secondo Tim Berners Lee “Il web è più che un'innovazione tecnica. L'ho progettato perché avesse una ricaduta sociale, perché aiutasse le persone a collaborare, e non come giocattolo tecnologico. Il fine ultimo del web è migliorare la nostra esistenza reticolare nel mondo” Tim Berners Lee http://www-128.ibm.com/developerworks/podcast/dwi/cm-int082206.t Web 2.0 secondo Tim Berners Lee “Web 1.0 was all about connecting people. It was an interactive space, and I think Web 2.0 is of course a piece of jargon, nobody even knows what it means. If Web 2.0 for you is blogs and wikis, then that is people to people. But that was what the Web was supposed to be all along. And in fact, you know, this Web 2.0, quote, it means using the standards which have been produced by all these people working on Web 1.0. It means using the document object model, it means for HTML and SVG and so on, it's using HTTP, so it's building stuff using the Web standards, plus Javascript of course. So Web 2.0 for some people it means moving some of the thinking client side so making it more immediate, but the idea of the Web as interaction between people is really what the Web is. That was what it was designed to be as a collaborative space where people can interact.” Cosa vi colpisce? Web 2.0 definizione L’elemento innovativo consiste nella combinazione di vecchie tecnologie e standard (come HTML, CSS, XML, JavaScript, DOM) per realizzarne di nuove (come AJAX), che consentono lo sviluppo di applicazioni Web di nuovo tipo, le Rich Internet Applications (RIA) (classico esempio di RIA è Google Maps). L’innovazione tecnologica risiede nell’assemblaggio (Innovation in Assembly) di tecnologie e servizi preesistenti. Queste combinazioni prendono il nome di mash-up e hanno il vantaggio di essere semplici da realizzare e di non aver bisogno di conoscenze informatiche approfondite. Un esempio di mashup è dato dall’unione di Google Maps e Flickr che consente di visualizzare su una mappa le foto relative alla zona selezionata. http://www.ictv.it/file/full/8/web-20/ Web 2.0 mappa Strumenti 2.0: una prima lista Tipologia strumento Web 2.0 Esempi Social bookmarking Blue Dot, del.icio.us, StumbleUpon, Technorati Calendaring Google Calendar, bCal, Yahoo! Calendar Images / Video Sharing YouTube, Flickr, FOTOLOG Collaborative authoring Wikipedia, PBwiki, Basecamp, Social Text, Writely Social Networking MySpace, Orkut, Facebook, Hi5, Friendster, LinkedIn, Neurona, Ning Blogs Blogger, Skyblog, dBlog, Splinder, WordPress Communications tools Windows Live Messenger, ICQ, Google Talk, Yahoo! Messenger Social games Second Life, Half Life, World of Warcraft, Lineage, RuneScape, Final Fantasy XI, Online Chess Feed reader / News aggregator Netvibes, Google Reader, FeedReader, Liferea, Straw File sharing Gnutella, eMule, BitTorrent, Napster, Kazaa E poi http://www.technorati.it/siti-del-web20/ Web 2.0 caratteristiche generali Le caratteristiche più importanti del Web 2.0 sono quindi: * I siti Web 2.0 sono piattaforme che consentono una forte interazione tra utenti * Gli utenti usufruiscono di servizi innovativi mediante potenti interfacce grafiche * Gli utenti forniscono il valore aggiunto con l’autoproduzione di contenuti e la condivisione della conoscenza. In tal modo si sfrutta e si valorizza l’intelligenza collettiva, vero motore del Web 2.0 * I servizi offerti vengono aggiornati di continuo, in modo da correggere rapidamente gli errori e aggiungere nuove funzionalità non appena disponibili (questa caratteristica viene anche chiamata “perpetual beta”) Web 2.0 caratteristiche generali Da un punto di vista funzionale, invece, ciò che caratterizza il web 2.0 è sostanzialmente la centralità ed il protagonismo dell'utente che da fruitore diviene sempre più un controllore dei propri dati e dei contenuti che naviga, facendosi stesso produttore di informazioni e, contemporaneamente, principale giudice di quanto prodotti da altri. Tutte le grandi storie di successo del web 2.0 mostrano un vero e proprio ribaltamento dei paradigmi della comunicazione cui la generazione adulta era abituata. Dalla comunicazione "da uno a molti" si passa a quella "da molti a molti". Web 2.0 primi esempi Il Page Rank di Google, basato sul “giudizio” degli altri siti Wikipedia enciclopedia con voci decise e costruite dagli utenti Ebay dove ogni venditore e compratore ha una reputazione pubblica determinata dagli altri utenti a seconda dei propri comportamenti. Google Maps dove gli utenti usano in maniera creativa dati standardizzati, dando vita a nuovi servizi Blog, dove la partecipazione sostituisce la comunicazione, i Social Network (Youtube, Flickr, Myspace, Facebook) che raccolgono ed organizzano contenuti forniti dagli utenti Blog Abbreviazione di web log (registro di eventi) diari pubblico. Sito web gestito da software specializzato (della famiglia dei CMS) che rende elementare inserire e pubblicare testi immagini ed elementi multimediali. Le unità di contenuto (post) sono pubblicate in successione temporale Uso di template per la User Interface Da una a tre colonne, header, ev. footer In coda ad ogni post, firma, data/ora, permalink (coordinate assolute) per garantire un link permanente anche quando il posto viene archiviato http://it.wikipedia.org/wiki/Blog http://www.dblog.it/public/post/la-definizione-di-blog-660.asp Blog Secondo Geert Lovink (Internet non è il paradiso, Apogeonline) i blog sono “i figli disillusi del crollo delle dot com”: lo scoppio della “bolla di Internet” (2000 http://en.wikipedia.org/wiki/Internet_bubble) ha ridimensionato le aspettative vero il Web e fatto riconsiderare gli investimenti. Il blog, con la sua semplicità di utilizzo, i suoi costi contenuti, le sue funzionalità “per tutti” si è imposto come nuovo “modo di fare internet” Il Wall Street Journal descriveva così i blog “ ... riflettono il meglio di Internet, un medium informale, anarchico, commercialmente ingenuo e affascinante ... “ Blog A volte con feed RSS (v. avanti), a volte con “tag” (v. avanti) Installati su server o sito già esistente (gratuito/pagamento) Nati nel 1997, esplosi nel 2002, numero oggi? http://www.sifry.com/alerts/archives/000493.html http://www.sifry.com/main/ http://blogdidattici.splinder.com/ http://www.edidablog.it/nuke/ Corporate Blog Corporate blog Una delle nuove frontiere del blog è quello aziendale, un blog scritto e curato da un'azienda per condividere informazioni relative a propri prodotti e servizi. A differenza di un sito, dove la comunicazione è diretta dall'azienda agli utenti, un corporate blog prevede uno scambio bidirezionale. Di fatto un blog aziendale costituisce un nuovo modello di marketing, e per la prima volta nella storia dell'IT strumenti nati per il mondo consumer approdano al business. Un corporate blog rappresenta un momento di incontro, di avvicinamento, tra i producer delle informazioni e i consumer. Non solo: già il fatto stesso di aprire un blog vuol dire iniziare un processo di analisi dei propri punti deboli. Corporate Blog 1) Infrastruttura tecnologica: il corporate blog deve essere in ambiente open source, scalabile ed efficiente 2) Comunicazione: l'aspetto del blog deve essere gradevole e informale. Utenti al centro della piattaforma che non devono “subire” passivamente le informazioni 3) Post: chi scrive deve essere un dipendente dell'azienda e deve scrivere in prima persona 4) Agli user generated content si risponde non con freddi comunicati aziendali ma con modalità 2.0, ovverosia company generated content 5) Aggiornamenti: niente peggio di un sito trascurato o aggiornato raramente. Perpetual beta e largo alla creatività! 6) Promuovere l'utilizzo degli RSS più che delle newsletter Esempi: http://www.infotel.it/it/corporate-blog-quando-usarli-e-perche.html Microblogging http://www.apogeonline.com/webzine/2007/10/30/23/200710302301 http://en.wikipedia.org/wiki/Micro-blogging http://www.twitter.com Esercitazione 2 Se c'è tempo Esercitazione 3 Web 2.0 caratteristiche dei contenuti 1 User Generated Content ! (Read/Write Web) L'utente diventa un protagonista “attivo” Alfabetizzazione: importante non solo “leggere” il Web ma anche saper scrivere il Web (Jenkins): è il nuovo Digital Divide? http://en.wikipedia.org/wiki/User-generated_content Un miliardo di utenti, circa 100 milioni di siti web (blog inclusi...) Riuso dei contenuti e aggregazione Web 2.0 caratteristiche dei contenuti 2 “L’aspetto collettivo e condiviso delle applicazioni Web 2.0 sviluppa naturalmente dinamiche in cui i contenuti e il valore prodotto dai singoli utenti sono messi in comune, sono oggetto di lettura e revisione collettiva e – in molti casi – sono modificati, etichettati e a loro volta ricondivisi da terzi. L’informazione, non è più così una materia fissa e intoccabile, ma contenuto fluido e aperto, che si arricchisce in virtù della sua condivisione e modificazione costante.” Web 2.0 caratteristiche dei contenuti 3 Riuso I contenuti non esauriscono la loro funzione e il loro ciclo vitale al momento della loro prima pubblicazione online ma, grazie al riuso, sono impiegati per servizi terzi, associati a contenuti simili, proposti per la discussione o la valutazione, etichettati e socialmente condivisi, ecc. Il principale riuso dei contenuti online è l’aggregazione: associare contenuti da fonti diverse in base a parametri specificati in precedenza. La tecnologia alla base degli aggregatori è la syndication, cioè la fornitura di contenuti da parte di siti Web e servizi online. Il principale formato di syndication è la Really Simple Syndication (RSS) un sistema di distribuzione dei contenuti attraverso file XML, che consentono di aggiornare costantemente i fruitori di un servizio ogni volta che i contenuti sono aggiornati. Web 2.0 caratteristiche dei contenuti 4 Usare un aggregatore, sia come software sia come servizio online, consente di “abbonarsi” a più fonti di contenuto (ad esempio a numerosi blog o mailing list o siti) e ricevere gli aggiornamenti di contenuto ogni volta che questi si aggiornano. Un vantaggio ulteriore dell’aggregazione è la sua sinergia coi tag: grazie a servizi come Technorati è possibile “abbonarsi” ad uno o più tag e ricevere i contenuti pertinenti più aggiornati man mano che vengono pubblicati. Web 2.0 caratteristiche dei contenuti 5 Folksonomy - Tag e metadati Nel Web 2.0, per tag si intendono delle etichette che vengono apposte ai contenuti, caratterizzandoli per categorie e parole chiave. L’idea alla base dei tag è semplice: fare sì che i contenuti siano ricercabili, correlabili e utilizzabili in base a parametri semantici (qualitativi e non quantitativi) definiti dagli utenti. Le applicazioni 2.0 consentono di affiancare ad ogni contenuto uno o più tag, scelti dall'utente. Questo avviene per tutti i tipi di contenuti, dal testo (blog) alle fotografie, fino ai video su YouTube. Web 2.0 caratteristiche dei contenuti 6 Folksonomy e Web semantico L’idea di dotare i contenuti della Rete di un sistema tassonomico condiviso, aperto e generato dal basso è chiaramente in contrasto con i principi del Web semantico, il cui obiettivo è costruire un ordine dall’alto. Il tagging invece produce, in un modo assolutamente anarchico ed efficiente, una folksonomy (neologismo formato dall’unione di folk – compare/amico – e taxonomy – tassonomia/classificazione), il cui obiettivo non è produrre l’ordine assoluto, ma il “miglior disordine possibile”, cioè quello che soddisfa le ricerche e sa adattarsi ad un insieme di contenuti in evoluzione, modificando costantemente il proprio sistema classificatorio in base al modello mentale emergente tra gli utenti. http://it.wikipedia.org/wiki/Web_semantico Web 2.0 caratteristiche dei contenuti 7 Geolocalizzazione La geolocalizzazione può essere intesa come una applicazione particolare del tagging. È possibile infatti categorizzare i contenuti anche da un punto di vista geografico: apporre un tag che contenga informazioni di carattere geografico a un’immagine, un testo o un video è molto facile e può portare a un notevole aumento del valore del contenuto vedi es. flickr http://flickr.com/photos/37385373@N00/161862482/ e foto picasaweb Web 2.0 caratteristiche dei contenuti 8 Geolocalizzazione Dal punto di vista dell’utente significa poter creare una mappa commentata, personalizzata e condivisibile con terzi. Esistono scenari d’applicazione innovativi ancora tutti da esplorare Il GIS nel Web 2.0 evolve nel Geoweb, l'associazione su web di informazioni e luoghi di una mappa, per rendere fruibile agli utenti un sistema per accedere alle informazioni tramite una mappa piuttosto che tramite parole chiave. Il Geoweb è quindi un tipico esempio di Web 2.0 e le sue fondamenta tecnologiche risiedono nei nuovi servizi quali Google Earth, NASA World Wind, Windows Live Local, Yahoo Maps, etc. A differenza dei GIS, che viene utilizzato soprattutto da aziende e istituzioni, il Geoweb è uno strumento alla portata di un numero molto più alto di utenti. E così molti più utenti sono diventati produttori di informazioni statistiche. http://maps.google.com etc Come inserire le mappe di Google nelle applicazioni http://www.google.com/intl/en/press/annc/embed_maps.html Geotagging Un tipico servizio 2.0 derivante dall'incontro di mappe e tagging è il geotagging: associare ad oggetti multimediali una o più parole chiave e visualizzarli in una mappa. Ad esempio è possibile associare ad una foto il nome del luogo dove è stata scattata, posizionando l'immagine in una mappa. Le foto acquistano quindi una dimensione in più, quella spaziale, oltre ad una serie di informazioni aggiuntivi. Si può ad esempio realizzare una mappa di una città che contiene le immagini di alcuni particolari (un hotel, un monumento, un locale...) e arricchirlo con delle informazioni (qualità dell'hotel, cenni storici sul monumento, giudizio sul locale...). Si realizza, anche in questo caso, un mashup tra servizi diversi. Oppure realizzare la mappa di un viaggio: Wiki: introduzione I wiki, inventati nel 1995 da Ward Cunnigham,si sono affermati come uno dei mezzi più semplice per collaborare in rete. Un wiki, termine in lingua hawaiana che significa “rapido” oppure “molto veloce”, è un ambiente web di condivisione e gestione di documenti e file dove gli utilizzatori possono visualizzare e aggiungere contenuti, ma anche di modificare i contenuti esistenti inseriti da altri utilizzatori. http://www.youtube.com/watch?v=-dnL00TdmLY Con il termine wiki si può anche far riferimento al software utilizzato per creare un sito web wiki. Sulla tecnologia Wiki si basa infatti il funzionamento dell’enciclopedia online Wikipedia. Un wiki permette di scrivere collettivamente dei documenti in un semplice linguaggio usando un browser. Caratteristica distintiva della tecnologia wiki è la facilità con cui le pagine possono essere create e aggiornate. Wiki Farm http://en.wikipedia.org/wiki/Wiki_farm Per chi è interessato a creare il proprio wiki, ci sono molte "wiki farm" disponibili, qualcuna delle quali gestisce anche wiki privati, protetti da password. La wiki-farm più famosa è Wikia, fondata nel 2004 da Jimmy Wales. Wikipedia: introduzione Wikipedia, uno dei siti + importanti del Web 2.0 [13]. Wikipedia è nata nel 2001 con l’obiettivo di creare un'enciclopedia libera e affidabile. Jimmy Wales, fondatore del progetto, parla di “uno sforzo per creare e distribuire una enciclopedia libera della più alta qualità possibile ad ogni singola persona sul pianeta nella propria lingua”. Il risultato è andato oltre ogni aspettativa: Wikipedia, con oltre otto milioni di voci e nove milioni di utenti registrati, rappresenta la più grande collezione di sapere umano. Wikipedia esiste in oltre 250 lingue differenti e riceve oltre 60 milioni di accessi al giorno. http://it.wikipedia.org/wiki/Wikipedia Wikipedia: introduzione http://www.alexa.com/data/details/traffic_details?url=wikipedia.org Wikipedia: qualche numero http://en.wikipedia.org/wiki/Wikipedia:Size_of_Wikipedia http://en.wikipedia.org/wiki/Category:Wikipedia_statistics Nel 2006 la rivista Nature ha confrontato Wikipedia e la prestigiosa Enciclopedia Britannica, giungendo a un giudizio di sostanziale parità quanto ad autorevolezza (3.86 errori per voce per Wikipedia, 2.92 l’enciclopedia britannica). Licenza GFDL http://it.wikipedia.org/wiki/Portale:Comunit%C3%A0 , vandalismi, wikilink Wikipedia: segue “Il punto non è che ogni voce di Wikipedia sia probabilistica, ma che l'intera enciclopedia si comporto in modo probabilistico ... Per dirlo in altro modo, nella Britannica la qualità varia da, diciamo, 5 a 9 con una media di 7. In Wikipedia varia da 0 a 10, con una media, diciamo, di 5. Ma visto che Wikipedia ha dieci volte le voci della Britannica, avete maggiori probabilità di trovare su Wikipedia una voce sensata su un qualunque argomento” “A rendere Wikipedia davvero straordinaria è il fatto che migliora nel corso del tempo: si cura organicamente come se la sua enorme e crescente armata di addetti fosse un sistema immunitario” “Il vero miracolo di Wikipedia è che questo sistema, aperto ai contributi di utenti non professionisti, non collassi nell'anarchia” C. Anderson, La Coda Lunga Wikipedia: segue Un estensione anche per Wikipedia: http://it.wikipedia.org/wiki/Greasemonkey Chi modifica Wikipedia? (applicazione 2.0!) http://www.lkozma.net/wpv/index.html Altri progetti Wikimedia: http://it.wikipedia.org/wiki/Wikimedia_Foundation#Progetti Wikipedia: segue Ricerca sulle motivazioni dei Wikipediani Voto Fun 6.10 Ideology 5.59 Values 3.96 Understanding 3.92 Enhancement 2.97 Protective 1.97 Career 1.67 Social 1.51 * : livelli di significatività Correlazione con l'impegno [0.322***] [0.110] [0.175*] [0.296***] [0.313***] [0.306***] [0.185*] [0.027] http://delivery.acm.org/10.1145/1300000/1297798/p60-nov.pdf?key1=1 Wikipedia: esercizio Altre tematiche di Wikipedia: Ironia http://it.wikipedia.org/wiki/Wikipedia:Scherzi_e_STUBidaggini Vandalismo http://it.wikipedia.org/wiki/Wikipedia:Gestione_del_vandalismo Wikipedia: segue La qualità di Wikipedia non sorprende: come dice Eric Raymond, “dato un numero sufficiente di occhi, tutti i bug vengono a galla”. http://it.wikipedia.org/wiki/Legge_di_Linus Ci sono proposte finalizzate a migliorare i contenuti: ad esempio due presentate alla XVI International World Wide Web Conference: Definizione della reputazione degli utenti sulla base delle modifiche effettuate. Se il contributo resiste alle modifiche si guadagna reputazione, mentre se il contributo viene sostituito dalla versione precedente la reputazione scende. In questo modo si mantiene la democraticità dell’enciclopedia e lo spirito collaborativo ● Segnalazione degli interventi faziosi considerazione l’identità dell’utente. ● prendendo in Enterprise Wiki In precedenza abbiamo visto come il wiki può rappresentare un valido supporto alle attività lavorative. E allora nell'ambito degli strumenti Enterprise 2.0 una azienda può dotarsi di piattaforme wiki proprie, fornendo così un servizio wiki ad uso dei dipendenti. Ciò consente di tenere all'interno della rete software e dati che costituiscono i wiki. Inoltre con un sistema di wiki aziendale sono possibili diverse integrazioni tra cui la realizzazione di applicazioni aggiuntive. E allora l'uso di wiki può costituire un utile strumento per la gestione delle informazioni aziendali, di clienti, di progetti e del flusso documentale. Enterprise Wiki Negli USA queste piattaforme sono molto diffuse e utilizzate sia per progetti interni localizzati in una o più sedi, che per quelli con terze parti come fornitori o clienti. Gartner prevede che il 50% delle grandi aziende adotteranno sistemi di wiki entro il 2009. In Europa e in particolare in Italia queste soluzioni stentano a trovare posto nelle strategie IT aziendali, ma qualcosa sta cambiando, e lo dimostrano le nuove versioni in lingua italiana messe a punto dai fornitori. I principali fornitori di sistemi di Enterprise wiki sono PmWiki ed il progetto Open di Socialtext. Ovviamente è anche possibile sviluppare una propria piattaforma wiki senza ricorrere a fornitori esterni. Web 2.0 : tecniche A partire da AJAX: liberazione dalla logica HTML – Post/Get – modello asincrono (stateless) con le GUI “WIMP” (windows, icons, menus and pointers) il Web si avvicina alle applicazioni desktop e nascono le Rich Internet Applications (RIA) Strumenti tecnici: AJAX (Asynchronous JavaScript and XML) ATOM – RSS API : integrazione – interazione MASH-UP : ibridazione – plugin (XUL!) Web 2.0 – spostamento sui server Fondamentale il ciclo centralizzazione – decentramento. mainframe Tecnologia → LAN e fat client → Web e thin client IBM Monopolista → Microsoft → Google Centrali (locali) Dati → Decentrati (locali) → Centrali (globali) Web 2.0 – tecniche: AJAX Componenti di AJAX - XHTML e CSS per formattare le informazioni - gli oggetti del DOM, manipolato tramite Javascript, per permettere di interagire con l’informazione presentata - l’oggetto XMLHttpRequest per scambiare dati in modo asincrono con il server - XML come formato per scambiare dati tra server e client http://it.wikipedia.org/wiki/AJAX http://gmail.com: la prima apparizione di AJAX... (vedi sorgente) Per approfondire: http://antirez.com/articoli/spaghettiajax.html http://www.onajax.com/ L'articolo che ha coniato il termine: http://www.adaptivepath.com/ideas/essays/archives/000385.php (V. articolo e link) Web 2.0 : strumenti di sviluppo 2.0: ideali le tecnologie “agili”: ● evoluzione costante ● fasi di sviluppo suddivise in piccole interazioni ● attenzione alle esigenze correnti del progetto http://it.wikipedia.org/wiki/Metodologia_agile Disponibili alcuni framework: ● Ruby On Rails, fw open MVC basato su Ruby (linguaggio ad oggetti) ● Django, fw open MVC Python ● Symfony fw open MVC PHP5 con supporto AJAX ● Zend framework fw open PHP5 dai creatori di PHP ● Google web toolkit fw open java, plugin per IDE (Eclipse NetBeans) http://en.wikipedia.org/wiki/Comparison_of_web_application_frameworks Il W3C http://www.w3.org/2006/rwc/ organizza un gruppo su “Rich Web Clients Activity” con il compito di sviluppare specifiche per migliorare le funzionalità client-side del Web. Attività su formati standard per la navigazione e su “Web API”. RSS Il formato RSS (acronimo di RDF Site Summary ed anche di Really Simple Syndication) si basa sull'XML, da cui eredita semplicità, l'estensibilità e la flessibilità. Quasi alternativa alla tradizionale pagina Web RSS dal 1999, Atom dal 2004 Numerosi i vantaggi che hanno i sistemi basati su RSS rispetto alle tradizionali newsletter: la possibilità di avere un unico aggregatore per diverse fonti, evitare lo spam, ricevere in tempo reale un'informazione selezionata e personalizzata. Aggregatori anche su browser: Firefox Segnalibri Live, Wizz RSS e altri add-on Esercizio: testare e commentare software e come plugin Firefox) aggregatori (come RSS A proposito di aggregatori, oltre a Netvibes (che ora è disponibile anche sui cellulari) Google Reader ha di recente raggiunto una funzionalità molto interessante, il plug-in Gears, che consente la lettura dei feed anche offline. Uno degli ultimi servizi online offerti è Grazr, una piattaforma che consente di organizzare le informazioni trovate su web. Un ottimo strumento per memorizzare feed e link di interesse, e condividerli con altri utenti. http://www.google.it/reader/ Google reader https://addons.mozilla.org/it/firefox/addon/424 WizzRSS Non perdersi: Netvibes La banda larga e miliardi di pagine di web sono risorse di valore solo se utilizzate con accuratezza ed intelligenza. E allora è utile ottimizzare i tempi, razionalizzare il percorso di navigazione e non perdersi nel sovraccarico cognitivo che spesso diventa caos. Ad esempio Netvibes (così come Google Reader) consente di riorganizzare fonti informative in griglie personalizzate. Ha più di 5 milioni di utenti. La pagina personalizzata, facile da implementare con semplici drag and drop, consente di tenere sott'occhio gli aggiornamenti dei siti di interesse, la posta, le news etc. Non bisogna più preoccuparsi di andare a cercare le informazioni sul web ma sono queste che arrivano, in maniera automatica, sul nostro aggregatore. http://www.netvibes.com/ Web 2.0 tecniche: XUL XUL (XML User Interface Language) è un linguaggio per definire interfacce grafiche Usato per scrivere Firefox, Thunderbird e relative estensioni e plugin Vedere su https://addons.mozilla.org/it/firefox/browse/type:1 le estensioni. Installarne alcune (le + 2.0!) e commentare (v. RSS e social) http://it.wikipedia.org/wiki/XUL#Riferimenti_cinematografici Web 2.0 : esempi mash-up http://www.deeario.it/2006/08/21/mashup-mappa-dei-blog-italiani/ http://larica-virtual.soc.uniurb.it/nextmedia/2007/02/08/eyes-on-yahoo-pi http://pipes.yahoo.com/pipes/ MashMaker di Intel http://softwarecommunity.intel.com/articles/eng/1505.htm http://code.google.com/apis/gdata/basics.html Mobilizzare siti http://carlo1.mofuse.mobi/ creato da http://snapple.mofuse.com/users/ RSS è una tecnologia che consente di “disaccoppiare” sito e visualizzazione ... Tagging Tagging è l'attribuzione di una o più parole chiave (i tag, appunto) a file presenti su piattaforme online di condivisione (documenti, video, audio, etc) come i video di YouTube o le foto di Flickr. Il tagging nasce da diverse esigenze tra cui la necessità di gestire l’enorme mole di dati presenti online: nel Web 1.0, e a maggior ragione in quello 2.0, l'information overloading (il sovraccarico cognitivo) rappresenta una rilevante questione e una classificazione risulta necessaria per il recupero di informazioni pertinenti. Tagging http://www.rashmisinha.com/archives/05_09/tagging-cognitive.html Analisi cognitiva del tagging di Rashmi Il tagging può essere visto come una evoluzione della tassonomia classica: “from taxonomy to folksonomy”, dove folksonomia è un neologismo che indica una categorizzazione collaborativa di informazioni mediante l'utilizzo di parole chiave scelte liberamente. E' un termine che a tutti gli effetti appartiene al mondo 2.0: nella sua definizione si fa infatti riferimento alla metodologia utilizzata da gruppi di persone che collaborano spontaneamente per organizzare in categorie le informazioni disponibili attraverso il web. http://it.wikipedia.org/wiki/Folksonomia Tag cloud La nuvola delle parole chiave (tag cloud) fornisce poi una rappresentazione dei common tags. In sintesi la nuvola di tag è la rappresentazione visiva delle etichette o delle parole chiave usate in un sito web. La lista è normalmente presentata in ordine alfabetico, con la caratteristica di attribuire un font più grande alle parole più importanti. Esempio: http://www.flickr.com/photos/tags/ Storia: http://www.10people.net/blog/index.php/2007/05/30/tag-clouds-cosa-so http://it.wikipedia.org/wiki/Tag_cloud http://tagcrowd.com/ Google: la ricerca Ogni motore di ricerca è composto da tre componenti: - crawler - database - interfaccia e software di query Il crawler è un software specializzato che naviga la rete e porta le pagine nell'indice. Il crawler tiene anche nota dei link che trova e li usa per raggiungere via via nuove pagine con nuovi link ... L'indice è un enorme database dove le pagine vengono memorizzate con tutti i metadati e dove tutte le parole vengono “invertite” creando indici/chiavi per ognuna di esse L'interfaccia interpreta la richiesta dell'utente, tenta di interpretarla e passa la richiesta al “query processor” che agisce sull'indice Google: la ricerca Le ricerche normalmente sono molto stringate: il 20 % usa una sola parola, quasi il 50% è composta da due o tre parole,solo 5% più di sei parole Anche le “ricerche” si distribuiscono come frequenza secondo una curva “a coda lunga” : circa il 50% delle ricerche quotidiane sono UNICHE. A proposito conoscete il GoogleWhacking? Circa l'85% degli utenti usa i primi quattro motori: G, Y, Ms e AOL (G > 50%) Il traffico sui motori di ricerca ha due picchi giornalieri uno la mattina in ufficio e uno la sera al rientro a casa. Il costo approx di acquisizione di un cliente varia dai 70$ della pubblicità postale, ai 50$ della pubblicità online, i 20$ delle pagine gialle fino agli 8$ (!) dei link legati alla ricerca Google: la ricerca prima Primi motori: Archie 1990 (ftp con query a linea di comando), poi Veronica 1993 con Gopher. Ricerche SOLO sul titolo dei documenti. Poi il Web e allora (1994) WebCrawler, il primo a indicizzare il testo delle pagine. Primo motore valido: AltaVista (dal 1995), nato nei laboratori DEC, grazie all'Alpha a 64bit poteva lanciare un migliaio di crawler contemporaneamente. Il primo anno AltaVista rispose a 4 miliardi di ricerche! Poi DEC venduta a Compaq che trasformò AltaVista in un portale (moda di quegli anni) Yahoo! Nasce come “La guida al WWW di Jerry e David” con approccio a directory (v. archive.org), grande successo grazie anche al legame con Netscape. Yahoo! Usò sempre il suo servizio a directory e quando introdusse la ricerca usò motori esterni: prima OpenText, AltaVista, poi Inktomi e Google. Google: la nascita Brin e Page studiavano a Stanford e Page impostò la tesi sul Web come grafo con Terry Winograd. Il progetto BackRub (1995) era un sistema per scoprire link sul Web, conservarli per analizzarli e ripubblicarli per far vedere quali pagine puntavano a una data pagina. Nel 1996 BackRub iniziò ad indicizzare il Web e, attraverso l'interpretazione dei grafi, a valutare anche l'importanza relativa dei siti e quindi dei loro link. Nasce qui il concetto base dell'algoritmo PageRank che tiene in considerazione sia il numero dei link che riceve un sito sia il numero dei link verso ognuno dei siti collegati al primo. Nel 1998 Brin e Page pubblicarono le caratteristiche di PageRank nell'articolo “The anatomy of a large-scale hypertextual Web search engine” e fondarono Google inc con sede nel classico garage. Google: l'algoritmo Il successo del motore sta nell'algoritmo di ricerca, ovviamente coperto da segreto, anche se sulla rete ci sono le sue caratteristiche più importanti. Un esperto di SEO ha sviluppato un teorema, il "Teorema di Randfish" http://www.seomoz.org/ (Utilizzo delle parole chiave * 0.3) + (Importanza del dominio * 0.25) + (Link in ingresso * 0.25) + (Dati degli utenti * 0.1) + (Qualità del contenuto * 0.1) + (Spinte manuali) (Penalizzazioni automatiche & manuali) = PunteggioGoogle Fattori nell’utilizzo delle parole chiave (Keywords): * Parole chiave nel tag del titolo * Parole chiave nei tag degli header * Parole chiave nel testo del documento * Parole chiave nei link interni che puntano alla pagina * Parole chiave nel nome di dominio e/o nell’URL Google: l'algoritmo Importanza del dominio: * Storia della registrazione * Età del dominio * Importanza dei link che puntano al dominio * Rilevanza del dominio sull’argomento basata sui link in entrata ed in uscita * Utilizzo storico & pattern dei link verso il dominio Punteggio dei link in entrata: * Età dei link * Qualità dei domini che mandano il link * Qualità delle pagine che mandano il link * Testo dei link * Valutazione della quantità/peso dei link (Pagerank) * Rilevanza sull’argomento delle pagine che mandano i link Google: l'algoritmo Dati degli utenti: * Storia della percentuale dei click (CTR) sulla pagina nei risultati dei motori di ricerca * Tempo speso dagli utenti sulla pagina * Numero di ricerche per URL/nome del dominio * Storia delle visite/utilizzo dell’URL/nome del dominio degli utenti che Google può monitorare (toolbar, wifi, analytics, ecc.) Punteggio della qualità del contenuto: * Potenzialmente dato a mano per le ricerche e per le pagine più popolari * Fornite da valutatori interni di Google (vedi Henk) * Algoritmi automatizzati per valutare il testo (qualità, leggibilità, ecc. Google: l'algoritmo Il brevetto originale dell'algoritmo Pagerank depositato nel 1998 U.s Patent file # 6,285,999 ; METHOD FOR NODE RANKING IN A LINKED DATABASE Descrizione: Un metodo che assegna una classificazione di importanza a documenti contenuti in un archivio, come ad esempio ogni archivio che contenga citazioni e rimandi, il Web o tutti gli altri database ipermediali. Il valore assegnato ad un documento è calcolato partendo dal valore dei documenti che lo richiamano. Inoltre, la classificazione di un documento è calcolata prendendo in riferimento una costante che rappresenta la probabilità che un ricercatore all'interno del database salterà in maniera casuale da un documento all'altro. Il metodo è assai utile per implementare la qualità dei risultati di un motore di ricerca per archivi ipermediali come ad esempio il Web, all'interno del quale la qualità dei documenti è molto variabile. Inventori: Page; Lawrence (Stanford, CA) Assegnatario: The Board of Trustees of the Leland Stanford Junior University (Stanford, CA) Google: l'algoritmo La formula semplificata http://it.wikipedia.org/wiki/PageRank Dove: * PR[A] è il valore di PageRank della pagina A * T1...Tn sono le pagine che contengono almeno un link verso A * PR[T1] ... PR[Tn] sono i valori di PageRank delle pagine T1 ... Tn * C[T1] ... C[Tn] sono il numero complessivo di link contenuti nella pagina che offre il link * d (damping factor) è un fattore deciso da Google e che nella documentazione originale assume valore 0,85. Può essere aggiustato da Google per decidere la percentuale di PageRank che deve transitare da una pagina all'altra e il valore di PageRank minimo attribuito ad ogni pagina in archivio. Google: l'algoritmo PageRank in dettaglio (da http://www.google.it/intl/it/why_use.html ) Basato sullo specifico carattere "democratico" del Web, PageRank sfrutta la vastissima rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un collegamento dalla pagina A alla pagina B come un "voto" espresso dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare il numero di voti, o collegamenti, assegnati a una pagina. Oltre a effettuare questo calcolo, Google prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine "importanti" hanno più rilevanza e quindi contribuiscono a rendere "importanti" anche le pagine collegate. Google: l'algoritmo PageRank assegna ai siti Web importanti e di alta qualità un "voto" più elevato di cui Google tiene conto ogni volta che esegue una ricerca. È evidente che oltre ad essere importanti, le pagine devono corrispondere ai termini ricercati. Quindi, Google integra PageRank con sofisticate procedure di ricerca testo per trovare le pagine che sono rilevanti e rispondono ai criteri di ricerca indicati. Google non si limita solo ad esaminare il numero di volte in cui una parola specifica è presente nella pagina, ma esamina tutti gli aspetti del contenuto della pagina (e dei contenuti delle pagine correlate ad essa) per stabilire se risponde o meno ai criteri di ricerca indicati. Integrità I complessi metodi di ricerca automatici di Google sono studiati per limitare al minimo le interferenze degli utenti. Sebbene vengano visualizzati annunci pubblicitari accanto ad alcuni dei risultati più rilevanti, Google non vende spazi pubblicitari all'interno dei risultati (cioè i clienti non possono acquistare un PageRank superiore). Le funzioni di ricerca di Google offrono un sistema semplice, onesto ed obiettivo per trovare siti Web di alta qualità contenenti dati rispondenti a quelli ricercati. Google Il motore di ricerca di Google è in breve tempo diventato uno dei più importanti punti di accesso ad Internet. Fare una ricerca con Google, oppure to google, sono diventati parte del linguaggio comune. Non lo sai? Chiedi a Google. Ma i servizi offerti da Google (BigG!) non si limitano più al “solo” motore di ricerca. E una grossa fetta del Web 2.0 in qualche modo appartiene proprio a BigG: YouTube, Google Earth/Maps/Video/Calendar/Reader... e Google sta per entrare nel mercato dei servizi mobili Google Dance Google Dance: periodicamente Google aggiorna gli algoritmi del motore per penalizzare quello che considera spamming da parte degli specialisti SEM/SEO (Search Engine Marketing / Optimization): la posizione nell'indice è così importante che ad esempio vengono scritti siti composti solo da link per far “salire” i siti che pagano. C'è il dubbio che questi attacchi continui contro lo spamming commerciale serva anche a “spingere” i servizi di pubblicità AdWords. https://adwords.google.it/select/Login Altre frodi sono possibili con AdSense, dove i proprietari dei siti guadagnano dai click sui link pubblicitari dei propri siti; a volte si usano programmi robot, altre volte lavoratori offshore per clikkare sui link e guadagnare (si stima che circa il 30% dei budget pubblicitari vadano dispersi così) https://www.google.com/adsense/login/it/?hl=it&gsessionid=HlXsYrGNM AdSense ha contribuito a servire (creare?) la coda lunga della pubblicità, portando centinaia di migliaia di aziende a fare pubblicità e migliaia di siti a offrirla . Google Nel 2007 Big Brother Award Italia ha assegnato a Google il poco invidiabile premio di “Tecnologia più invasiva”, motivando in questo modo la decisione: “Brin, uno dei fondatori di Google ama ripetere ai suoi dipendenti "Don't be evil." "Non fate i cattivi". E' diventato ormai lo slogan aziendale. L'ammirazione generale per Google ed i servizi che rende ed il suo successo come azienda non può nascondere che ogni ricerca, ogni e-mail, ogni post in Google Groups viene registrato ed analizzato, anche se in modo anonimo, e le analisi fatte puntano alla profilazione del navigatore. Google, date le dimensioni, è l'entità al mondo potenzialmente più pericolosa per la privacy. Con il recentissimo acquisto di DoubleClick.com, gigante dell'advertising e della profilazione online, che ingigantisce le potenzialità di data mining di Google, sembrerebbe che il motto possa ora diventare "Don't be evil, buy the Devil!". Altri dubbi su Google: http://www.ippolita.net/google Google OpenSocial Google OpenSocial API è una serie di API che permetteranno di realizzare applicazioni sociali, sfruttando i dati messi a disposizione da numerosi siti web. MySpace ha già annunciato la propria adesione al programma. Uno dei primi servizi di che sfruttano questo nuovo set di API è Orkut, il social network di Google (molto più popolare in Sud America che in Europa), che ha messo a disposizione una sandbox per iniziare a sviluppare applicazioni. Il set di API comuni permetterà agli sviluppatori di non imparare diversi linguaggi per creare applicazioni per svariati siti. Attualmente tra i servizi che hanno aderito ad OpenSocial figurano: Engage.com, Friendster, hi5, Hyves, imeem, LinkedIn, MySpace, Ning, Oracle, orkut, Plaxo, Salesforce.com, Six Apart, Tianji, Viadeo, e XING. Google OpenSocial 2 http://code.google.com/apis/opensocial/ Ma: We don’t want to have the same application on multiple social networks. We want applications that can use data from multiple social networks. (Tim O’Reilly su OpenSocial, titolo del commento “It's the data, stupid!”) Google ZeitGeist http://en.wikipedia.org/wiki/List_of_acquisitions_by_Google Android A novembre 2007 Google annuncia, insieme alla Open Handset Alliance, Android, una piattaforma opensource basata su Linux per lo sviluppo di applicazioni per cellulari. Il progetto si pone come concorrente di Nokia Symbian e di Microsoft Mobile. Dell'alleanza fanno parte tra gli altri HTC, Intel, Motorola, Qualcomm, NVIDIA, LG, Samsung e molte azienda telefoniche tra cui NTT DoCoMo, China Mobile, TelecomITalia, T-Mobile Google tricks Google racconta quali informazioni vengono raccolte quando viene utilizzato il motore di ricerca e quello che viene fatto per proteggere la privacy degli utenti: http://www.youtube.com/watch?v=iPkvNr2cpqg Ricerca nei blog: http://blogsearch.google.it/ Storia delle ricerche http://www.google.com/history Altro: http://www.google.com/intl/it/options/ e http://labs.google.com/ domini – ombra e altri trucchi dei SEO: http://www.google.it/support/webmasters/bin/answer.py?answer=35291 Web 2.0 caratteristiche sociali 1 Uso sociale del software software che offe agli utenti uno strumento di relazione (di solito attraverso la condivisione di contenuti). - condivisione di valore: applicazioni puramente sociali in cui ad una maggiore partecipazione degli utenti corrisponde un aumento di qualità e quantità dei contenuti e di conseguenza un maggior valore del servizio. La dimensione collettiva, quindi, è la garanzia dell’esistenza e della qualità del servizio. Es. Wikipedia - condivisione di un valore e cooperazione: la cooperazione su contenuti non solo condivisi ma co-creati, diventa un ulteriore elemento di valore. La possibilità di “creare insieme” contenuti aumenta di un ordine di grandezza il grado di relazione tra utenti e favorisce la socialità fin dal momento di generazione del contenuto. Es. docs.google.com Web 2.0 caratteristiche sociali 2 Il valore dei contenuti delle applicazioni Web 2.0 Dato che un servizio acquisisce contenuti (e valore) grazie alla partecipazione diretta degli utenti e dei visitatori, le applicazioni Web 2.0 sono in un certo senso “ostaggio” di chi le utilizza. Un'alta e costante partecipazione degli utenti è condizione di sopravvivenza dei siti di social networking La popolarità di un servizio Web 2.0 sembra essere un elemento così critico da sovrastare talvolta la qualità stessa. Web 2.0 caratteristiche sociali 3 La partecipazione Nel panorama Web 2.0 creare, stimolare, mantenere la partecipazione significa garantire il successo per un servizio online. Diversi gradi di partecipazione consentiti agli utenti: la libertà di intervento sul contenuto è un elemento critico per comprendere il livello di valorizzazione dell’utente, dei suoi contenuti e delle sue relazioni. - accesso limitato ai soli utenti registrati e coinvolti nella condivisione (Linkedin) - accesso limitato ai soli utenti registrati (Flickr) - accesso relazionale aperto a tutti gli utenti (blog) - accesso completamente aperto a tutti gli utenti (alcuni wiki) Web 2.0 caratteristiche sociali 4 La partecipazione - segue Molti servizi adottano politiche miste di promozione della partecipazione. (es. alcune parti del sito visibili a tutti) Un altro elemento di cui tenere conto è il grado di personalizzazione della partecipazione consentito agli utenti. Sistemi come WordPress, per esempio, permettono ai titolari dei blog di impostare diversi livelli di accesso alla produzione dei contenuti e consentono di abilitare i commenti a tutti o solo a utenti registrati. Altro aspetto da valutare: molti servizi Web 2.0 fanno concorrere un utilizzo gratuito e un utilizzo a pagamento. Ovviamente agli utenti paganti sono garantiti servizi di maggiore qualità, funzionalità aggiuntive, mentre i non paganti sono esclusi. Web 2.0 caratteristiche sociali 5 Principi fondanti: fiducia, credibilità e controllo sociale Nell’interazione con una tecnologia, la credibilità è rilevante quando questa: - è una fonte di conoscenze - consiglia o fornisce istruzioni agli utenti - riporta misure - riferisce i risultati delle operazioni svolte - comunica il proprio stato - offre delle simulazioni - ricrea ambienti virtuali Web 2.0 caratteristiche sociali 6 Principi fondanti: fiducia, credibilità e controllo sociale La possibilità offerta da molti servizi Web 2.0 di abbinare ai contenuti un feedback proveniente da altri utenti (commenti, valutazioni, o anche semplici “tag”, nei casi (es. del.icio.us) in cui il fatto stesso di inserire un sito tra i propri bookmark implica una valutazione positiva) contribuisce a rinforzare la credibilità del servizio, agendo, in particolare, sulle seguenti dimensioni: - Credibilità “di superficie” (il fatto che altri utenti abbiano usato/valutato positivamente un servizio contribuisce a creare una prima impressione positiva); - Reputazione (livello di credibilità attribuito ad un certo oggetto sulla base delle valutazioni di attori terzi ritenuti “autorevoli”: può essere sfruttato se l’utente conosce le persone che “commentano” un certo contenuto, ad esempio, perché sono suoi amici o perché ha già avuto modo di apprezzare la bontà dei loro consigli). Web 2.0 caratteristiche sociali 7 Principi fondanti: fiducia, credibilità e controllo sociale Tra gli elementi che influiscono sul livello di fiducia accordato ad una certa applicazione Web 2.0 sono importanti: - la possibilità di confrontarsi con le scelte di altri utenti (ad esempio, si attribuisce fiducia ad un determinato servizio perché è stato scelto da molte altre persone, eventualmente conosciute, e quindi costituisce una sorta di “standard di fatto” e sembra offrire maggiori garanzie di stabilità) - il fatto che organizzazioni relativamente consolidate decidano di acquisire determinati servizi fornisce una sorta di garanzia sulla stabilità e sull’affidabilità di questi ultimi Web 2.0 caratteristiche sociali 8 Nuove dimensioni del diritto d’autore: Copyright e Copyleft Produzione, condivisione, valutazione e immissione in un circuito di relazioni di un contenuto aprono molti problemi legati al copyright, mettendo in alcuni casi in crisi il concetto di copyright stesso. Un contenuto condiviso e commentato, infatti, a chi appartiene? È interamente di proprietà di chi lo ha scritto o è un’opera attribuibile ad autore materiale e commentatori? E se sì, in quali misure? Sono sufficienti e adeguati i soli criteri quantitativi, per stabilire il grado di autorialità? Il tutto, per di più, si complica nel caso di contenuti collettivi o cocreati in redazioni distribuite: ad esempio, chi è l’autore e il titolare dei diritti editoriali delle definizioni di Wikipedia? Web 2.0 e opensource Quale è il rapporto tra il Web 2.0 e il fenomeno opensource? http://opensourceblog.biz/blog/2007/09/17/open-source-economia-della-co Le comunità opensource sono un esempio di Wikinomics (v.) e di Smart Mobs (v.) Web 2.0 quanti utenti Interessante notare che i siti “2.0” compaiono in buona posizione nelle classifiche dei siti più visitati; ad esempio nella lista compilata da Alexa quasi tutti i siti elencati compaiono tra i 100 siti più visitati, superati solo da siti come Google, Yahoo! e MSN. Il buon posizionamento in classifica indica che l'utilizzo dei siti Web 2.0 è divenuto ormai “di massa”. http://www.alexa.com/site/ds/top_sites?ts_mode=global&lang=none Utenti internet http://www.harrisinteractive.com/harris_poll/index.asp?PID=827 http://www.internetworldstats.com/ Web 2.0 quanti utenti Nel corso del 2007 i media hanno dato risalto ad sottoinsieme molto ristretto dei siti Web 2.0, YouTube e Second Life primi fra tutti. Ma quali sono i siti realmente più visitati e utilizzati? La risposta non è semplice, dato che l’oggetto stesso della rilevazione non è perfettamente definito. Tuttavia alcune indagini hanno provato a far luce sul alcuni aspetti del fenomeno. Secondo l’indagine del progetto JISC dell’Università di Oxford, la regina del Web 2.0 è Wikipedia. http://tallblog.conted.ox.ac.uk/index.php/2007/03/16/some-real-data-on-we Il livello di partecipazione Riguardo la reale partecipazione degli utenti ai siti “collaborativi” da parte di alcuni autori viene sottolineata la disuguaglianza di partecipazione (participation inequality) che porterebbe solo l'uno per cento degli utenti ad essere veramente attivi. http://www.useit.com/alertbox/participation_inequality.html http://en.wikipedia.org/wiki/1%25_Rule Numero utenti “attivi” Social network Le “social network” sono gli eredi di Usenet, la rete dei gruppi di discussione che usa(va) il protocollo nntp. Oggi i gruppi e i loro archivi sono sotto la “protezione” di Google che ne garantisce la continuazione in modalità “web”. http://groups.google.it/groups/dir?hl=it&sel=33592333&expand=1 Molti termini delle social network (e di tutte le applicaizoni 2.0) sono nati nelle comunità Usenet. Cosa resta dei gruppi Usenet? Social network http://it.wikipedia.org/wiki/Rete_sociale Domanda: di chi è MySpace? Social Bookmarking Basato sul tagging http://del.icio.us/ vedi con plugin http://www.stumbleupon.com/ con plugin Il servizio consente agli utenti di tenere traccia dei siti preferiti (mettere un bookmark, e cioè un segnalibro), condividerli con altri, scoprire i preferiti degli altri utenti: il tutto si basa sull'associazione di parole chiave ai segnalibri. Non i vecchi segnalibri che si affollano sul browser: un insieme di tag con i quali porre l'accento sugli aspetti maggiormente interessati per l'utente (rendendo quindi facile ritrovare informazioni a distanza di tempo). Il meccanismo di bookmarking e tagging è semplificato dalla possibilità di aggiungere al proprio browser pulsanti con cui marcare i preferiti e aggiungere parole chiave. Social Bookmarking StumbleUpon ha recentemente inaugurato la nuova funzione SearchReviews che consente agli utenti iscritti al servizio StumbleUpon di godere dell’integrazione del sistema di rating con Google News, Yahoo News, Flickr, Wikipedia e YouTube. Le valutazioni assegnate ai siti dagli utenti, quindi, compaiono anche nelle pagine dei risultati di Google, Yahoo, MSN, AOL e Ask. Il social bookmarking diventa di fatto parte integrante del browsing online. «Se dovesse avere successo Search Reviews potrebbe raggiungere una massa critica capace di rivoluzionare il modo di valutare la popolarità online e quindi gli strumenti di misura», ha commentato Carla Thompson, product analyst di Guidewire Group. Esercizio: testare StumbleUpon e commentare Second Life I media hanno enfatizzato, spesso a sproposito, il successo di Second Life, un ambiente virtuale dove farsi una vita parallela con grafica 3D. Ogni utente può scegliersi o personalizzarti un personaggio (in figura 29 un individuo standard, un Avatar) e viaggiare e vivere in un mondo virtuale, spendendo o guadagnato linden dollars, convertibili (al 30 maggio 2007 è scambiato col Dollaro 266 a 1). Ovviamente non mancano gli utenti che navigano per curiosità. L’universo SL è estremamente eterogeneo: si va dalla compravendita di “immobili” alle scommesse, dallo spaccio di droga alla prostituzione, etc. Recentemente alcune indagini hanno fortemente ridimensionato sia il numero di utenti attivi che la rilevanza del business. Altri aspetti 2.0 Archiviazione online Intranet 2.0 Ricerca 2.0 Wom PA 2.0 Archiviazione online 2.0 Le nuove tendenze di Internet, il miglioramento delle tecnologie software di memorizzazione dati e la drastica diminuzione dei costi hardware sono alla base del successo di un nuovo tipo di servizio: l'archiviazione dei propri dati online (storage online). In parte ciò avviene già con altri strumenti 2.0: le foto di Flickr non sono sul nostro pc bensì su un server, come i video su YouTube, o le informazioni presenti su wiki, etc. Una delle caratteristiche del 2.0 è infatti il parziale spostamento dei propri dati dal proprio computer ad un server condiviso. Archiviazione online 2.0 Lo spostamento di dati sui server, se da un lato comporta un differente grado di sicurezza, dall'altra presenta il notevole vantaggio di avere a disposizione uno spazio in remoto dove archiviare i propri dati e gestirli come se fossero presenti in un disco locale. Generalmente i servizi offerti sono gratuiti nella versione base e a pagamento per quelli premium, con un maggior spazio di storage e funzionalità aggiuntive. SteekRad esempio offre un GB di spazio gratis, mentre XDrive ne garantisce 5GB. E' poi possibile sfruttare sistemi già esistenti: è questo il caso di Gmail Drive shell extension, che consente di utilizzare lo spazio messo a disposizione dall'account di posta Google (Gmail). (anche plugin di Firefox) Intranet 2.0 Una intranet 2.0 potrebbe allora prevedere le seguenti funzionalità: 1) Informazioni e oggetti multimediali (moduli di richieste, video, pubblicazioni, etc), utilizzando tag ed interfacce desktop. Il tagging generato dai dipendenti costituisce esso stesso valore aggiunto sulle informazioni e i servizi offerti. 2) Applicazioni software "tagged" in una repository: ciò faciliterebbe il riuso del codice e quindi una riduzione dei tempi di lavoro e ad un aumento della qualità. 3) Condivisione di siti di interesse comune: realizzare quindi una sorta di del.icio.us fatto in casa, orientato alle tematiche d'interesse. Oppure utilizzare uno dei servizi presenti su Internet con una utenza aziendale(es. Favoriti.it.). 4) Implementazione di robusti motori di ricerca, ad esempio sfruttando Google, sia per le ricerche interne che per quelle su web. Esercizio: immaginiamo una Intranet della facoltà Ricerca 2.0 Un buon strumento di analisi del web per ricercatori è costituito dai motori di ricerca personalizzati: ad esempio con Google Custom Search Engine (CSE) è possibile creare, in pochi minuti e senza il bisogno di competenze informatiche, un proprio motore che effettua ricerche solo su un predefinito sottoinsieme di siti. Altra tematica interessante sono i “motori di ricerca semantici”, es. http://www.grokker.com Grokker è uno strumento di ricerca visuale che raggruppa i risultati per categoria, con il quale è possibile effettuare una ricerca sfruttando il database di Yahoo! ed ottenere i risultati sotto forma di mappe navigabili dove le sfere rappresentano le categorie e i quadrati sono i link. Passando il mouse sopra un quadrato appaiono anche informazioni quali il nome del sito, la descrizione, l’ultimo aggiornamento e l’indirizzo. Cliccando apparirà anche un’anteprima della pagina web. Ricerca 2.0 Sempre di semantica e di motori di ricerca si parla con askWiki http://askwiki.com/AskWiki/index.php/Main_Page Proviamo ad usarlo: riflessioni? Wom Uno sguardo fuori: cosa diranno di noi? Abbiamo visto come alcune tecniche web 2.0 possano aiutare ad organizzare, produrre e valorizzare le informazioni presenti in una azienda. E “ascoltare” la voce dei dipendenti. Un ragionamento analogo va fatto per quel che accade all'esterno, e in particolare captare le "voci" che riguardano la propria realtà. Ormai da molto tempo viene riconosciuta l'importanza del passaparola (word of mouth, Wom) degli utenti, siano essi consumatori o cittadini che si rivolgono alla Pubblica Amministrazione. Il Wom su web è una informazione preziosa per valutare i propri prodotti o servizi. Lo strumento principale con cui si legge di sè è la rassegna stampa. Il web 2.0 offre nuovi strumenti, rapidi e spesso a costo zero, ad esempio, sfruttando la logica dei feed, è possibile “seguire” quanto si scrive sui blog sulla propria organizzazione. Wom Funzionalità come quella di Watchlist di Technorati (v.) consentono appunto di tenere d'occhio quanto scritto in rete su aziende e istituzioni. Tuttavia Technorati concentra la propria ricerca sui blog, specialmente quelli stranieri, e allora per seguire ad esempio una realtà italiana è preferibile un servizio come quello di Google News. Inoltre all'interno dell'azienda è poi interessante rendere disponibili le informazioni raccolte. Xfruits (v.), ad esempio, consente di produrre un file in formato pdf contenenti i feed raccolti in rete. Oppure Google Alert invia automaticamente per email le informazioni (non sempre accurate) sull'argomento prescelto, con la frequenza desiderata. In ogni caso lo strumento principale per rispondere al Wom ed interagire con i propri utenti è il corporate blog (v. sopra). PA 2.0 Esempi di pubblica amministrazioni che hanno capito l'importanza dell'approccio web 2.0 ai servizi on line impattando direttamente su alcuni elementi dell'attività della PA come ad esempio: La regolazione: l'ufficio brevetti americano ha abbattuto i tempi e la litigiosità collegata alla propria attività coinvolgendo i cittadini in una rete di "validatori" dei brevetti, il cui livello di attendibilità è individuato dagli stessi altri componenti della rete. La collaborazione interna: le sedici agenzie statunitensi di intelligence sono riuscite ad eliminare i colli di bottiglia burocratici attraverso cui dovevano passare tutte le informazioni realizzando "intellipedia" una rete interna per tutti gli agenti che consente la circolazione di informazioni a livello ufficioso. PA 2.0 L'usabilità: Il comune di Torino ha attivato sul proprio sito una serie di applicazioni che semplificano la navigazione, dalla possibilità di personalizzare l'home page, a finestre in cui compaiono le parole chiavi più frequenti, per facilitare la ricerca dei servizi più utili, fino al nuovo esperimento di social tagging TaggaTO http://www.comune.torino.it/taggato/ L'accountability: In Gran Bretagna il Parlamento ha lanciato un sito di petizioni on line nel quale ognuno può proporre la propria petizione che ha raggiunto il traguardo dei 3 milioni di utenti. http://www.parliament.uk/parliamentary_publications_and_archives/pub Comunicazione interna e creazione del senso di appartenenza: in questo senso particolarmente significativa l'esperienza della Intranet della regione Veneto http://www.forumpa.it/archivio/4000/4400/4470/4478/cogo-vicine.html Software da provare: Flock http://punto-informatico.it/p.aspx?i=2107453 http://www.flock.com/ Basato sul codice di Firefox, Flock si distingue da quest'ultimo per la capacità di integrarsi con i principali siti di social networking e di blogging, tra i quali Twitter, Facebook, YouTube, WordPress, Blogger, Xanga e del.icio.us. Tale integrazione permette agli utenti di visualizzare contatti, contenuti e risorse online in un'apposita barra laterale del browser, e condividere per mezzo di semplici operazioni di drag and drop testi, link, foto, video ed altri contenuti digitali. Riflessioni complessive Commentare il post e testare almeno tre dei siti 2.0 proposti ... commenti? http://www.masternewmedia.org/it/Web_2.0/scopri_tutti_gli_usi_e_le_occas Una delle prime definizioni, la più citata: http://www.oreilly.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.h Un'altra raccolta di definizioni: commenti? http://www.dynamick.it/web-20-una-definizione-in-10-punti-534.html 500 definizioni http://www.basecamphq.com/web2-500.html quale vi piace? Test finale Conoscete la Netiquette? http://netiquette20.wikispaces.com/ Quanto avete imparato? http://web20.designinterviews.com/quiz.php Bibliografia Tim Berners Lee, L'architettura del nuovo Web, Feltrinelli, Milano A.L. Barabasi, Link. La scienza delle reti, Einaudi, Torino, 2004 Henry Jenkins, Cultura convergente, Apogeo, Milano, 2007 dal web 2.0 ai media sociali: Tracce e percorsi della partecipazione in rete A cura di CSP s.ca.rl. - Lara Marcellin, Fabiana Vernero, Ferdinando Ricchiuti, Enrico Sola, Andrea Toso, Giovanni Calia, CSP s.c.a.r.l., http://www.csp.it Chris Anderson, La coda lunga, Codice edizioni, Torino, 2007 Sergio Maistrello, La parte abitata della rete, Tecniche Nuove, Milano, 2007 Howard Rheingold, Smart Mobs, Raffaello Cortina, Milano 2003 Pierre Lévy, L'intelligenza collettiva (per un'antropolgia del cyberspazio), Feltrinelli, Milano 1996 Web 2.0: le teorie ● Leggi di Metcalfe, Sarnoff e Reed ● Coda Lunga ● Legge di Pareto ● Teoria delle reti: sei gradi di separazione e small worlds ● Eco, Sterling e Lèvy La legge di Metcalfe Una considerazione sugli utenti del mondo 2.0: il loro numero. Milioni di utenti giornalieri rendono famose piattaforme come YouTube o Flickr. E allora torna ad essere attuale la Legge di Metcalfe: la legge prende il nome del suo inventore, lo statunitense Robert Metcalfe, e risale alla fine degli anni settanta: "L’utilità e il valore di una rete sono pari ad n(n-1), dove n è il numero degli utenti". http://it.wikipedia.org/wiki/Legge_di_Metcalfe Metcalfe, inventore di Ethernet, fondatore di 3Com e altre società, è anche famoso per avere predetto il collasso di Internet nel 1995 e per essersi “mangiato” letteralmente, come promesso, l'articolo della previsione. La legge di Reed La legge di Metcalfe era un'evoluzione della legge di Sarnoff (pioniere della radiofonia) che sosteneva la relazione lineare tra gli utenti di una rete e il suo valore. David Reed sostiene che il valore delle reti non cresce proporzionalmente al quadrato degli utenti, ma in modo esponenziale. Questa legge vale per le GFN (group forming network), reti dove gruppi di persone usano reti di computer per formare gruppi. Immagine da www.kaltura.com Coda Lunga L'espressione (“The Long Tail”) è stata coniata da Chris Anderson per descrivere alcuni modelli economici e commerciali come Amazon.com o Netflix. Il termine è anche utilizzato nelle scienze statistiche per definire modelli di distribuzione della ricchezza o di usi lessicali. In queste distribuzioni, una popolazione ad alta frequenza o ampiezza è seguita da una popolazione a bassa frequenza o ampiezza, che diminuisce gradatamente. In molti casi, gli eventi poco frequenti o di bassa ampiezza – la coda lunga – possono complessivamente superare in numero o in importanza la porzione iniziale della curva, di modo che presi tutti insieme rappresentano la maggioranza. Anderson sostiene che l'insieme dei prodotti a bassa richiesta o con ridotti volumi di vendita può occupare una quota di mercato equivalente o superiore a quella dei pochi bestseller o blockbuster, se il punto vendita o il canale di distribuzione sono abbastanza grandi. Coda Lunga http://www.masternewmedia.org/it/nicchie_di_mercato_la_Long_Tail_e_i_suoi Coda Lunga “Quel semplice quadro con pochi hit rilevanti e tantissimi nonhit irrilevanti sta oggi assumendo l'aspetto di un confuso mosaico di milioni di mini-mercati e micro-star ... il mercato di massa si sta tramutando in una massa di nicchie.” “Il nuovo mercato di nicchie non sta sostituendo il tradizionale mercato di hit: sta solo dividendo, per la prima volta,la scena con quest'ultimo.” “Per cent'anni abbiamo vagliato, e scartato, tutto tranne i bestseller, così da usare nel modo più efficace possibile scaffali espositivi costosi, schermi, canali e attenzione.” “... pensate ai costi di distribuzione in calo come ad una marea che si ritira, rivelando una nuova terra che c'è sempre stat, ma che era sommersa.” Coda Lunga “Regola del 98%: in un mondo di costi di packaging quasi inesistenti e di accesso istantaneo a quasi tutti i contenuti in formato digitale, il consumatore acquista almeno una copia di quasi tutti i prodotti disponibili (appunto il 98%).” Esempio tipico di “coda lunga”: i servizi pubblicazione, come http://www.lulu.com/it/ di auto- Coda Lunga “La prima forza, la produzione democratizzante, popola la coda. La seconda forza, la distribuzione democratizzante, rende disponibile qualunque prodotto. Deve entrare in scena la terza forza ... il passaparola amplificato (sfruttare l'opinione dei consumatori) per far incontrare domanda e offerta e aiutare la gente a trovare ciò che vuole in questa nuova superabbondanza di varietà, perché il potenziale del mercato a coda lunga si possa dispiegare in tutta la sua potenza.” Legge di Sturgeon: “il 90% di http://gandalf.it/arianna/sturgeon.htm tutto è spazzatura” La legge di Sturgeon, che bloccherebbe gli utenti in librerie “fisiche”, in Rete diventa solo un problema di filtri (v. Eco). Abbiamo bisogno di filtri efficienti (Google!?) per separare segnale e rumore. Coda Lunga ed evoluzione delle culture Stiamo passando da un cultura di massa (mainstream) a una cultura massicciamente parallela. C'è un'esplosione di varietà e di scelta di contenuti, che trasforma la cultura di massa in milioni di microculture che coesistono e interagiscono ... “ultranicchie”... “tribù di interesse” culturali. E' la fine della cultura del “boccione d'acqua” o del “prime time” televisivo, dove la maggior parte della popolazione ascolta, legge e guarda lo stesso bacino di hit; ora si va verso le microculture, dove ognuno si interessa di cose diverse. Fenomeno parallelo nel mondo della produzione: just-in-time personalizzazione del prodotto ed eliminazione delle scorte, ma ... qui si parla di bit e non di atomi! Coda Lunga ed evoluzione delle culture Conseguenze sulla qualità? “E con questo non sto dicendo che la tv sia volgare e stupida perché le persone che compongono il Pubblico sono volgari e stupide. La tv è ciò che è per il semplice motivo che la gente tende ad assomigliarsi terribilmente proprio nei suoi interessi volgari, morbosi e stupidi, e a essere estremamente diversa per quanto riguarda gli interessi raffinati, estetici e nobili.” (D. Foster Wallace) Legge di Pareto L'economista Pareto rilevò che il 20 % della popolazione possedeva l'80% della ricchezza, un rapporto abbastanza costante nel tempo e nello spazio. Da questa “legge” nacque la regola dell'80/20. Il linguista Zipf scoprì che una legge equivalente valeva per la frequenza delle parole: alcune erano molto frequenti, altre molto meno, secondo un rapporto assolutamente prevedibile: la frequenza era uguale a 1/n, dove n era la posizione in classifica (la seconda è usata ½ della prima, la terza 1/3 e così via) (legge di Zipf). La forma classica delle distribuzioni di potenza è y=axk in questo caso y è la diffusione e x la classifica per popolarità . Legge di Pareto Nota: 80 e 20 sono percentuali di diversi fenomeni: NON devono dare 100! Spesso il 10% dei prodotti cumula l'80% delle vendite! Nei mercati “a coda lunga” la regola 80/20 cambia in tre modi: - si possono offrire molti più prodotti - le vendite si diffondono più equamente tra hit e coda (la coda si ingrossa) grazie ai filtri e alle raccomandazioni - il profitto si ripartisce equamente tra hit e non-hit Nei mercati online la “testa” è molto meno importante: es. nei DVD i primi 5.000 titoli sommano il 65-70% delle vendite offline e il 40-50% delle vendite online Reti, nodi, hub ... topologia Eulero (1707-1789) pose le basi per l’attuale “teoria dei grafi”, che permettono di schematizzare situazioni o processi al fine di analizzarli in termini algoritmici. Successivamente due matematici ungheresi degli anni Venti, Erdós e Rényi, studiarono a fondo i grafi e ne dedussero che i fenomeni complessi fossero di natura casuale, senza leggi. Numero di Erdós http://it.wikipedia.org/wiki/Paul_Erd%C5%91s#Il_numero_di_Erd.C5.91s Reti, nodi, hub ... topologia In sociologia (Milgram) studiò i “gradi di separazione”, la distanza che esiste tra due punti di una rete in base ai loro legami indiretti: tra due distanti sconosciuti, tra due pagine web in Internet o tra due molecole di una cellula. http://it.wikipedia.org/wiki/Sei_gradi_di_separazione_%28sociologia%29 Esperimento di Milgram nel 1967 per capire la “distanza” tra cittadini USA; selezionati cittadini di Wichita e Omaha (v.) dovevano mandare una lettera a due cittadini di Boston affidandola a persone “conosciute” ... in media 5,5 passaggi (anche se molte andarono disperse). Barabasi: “quanto è grande il Web? e quanti gradi di separazione?”. Un esperimento nel 1998 stima il “diametro” del Web a circa 19. Reti, nodi, hub ... topologia Una tesi interessante e paradossale fu fornita con la tesi dei “legami deboli” del sociologo Granovetter, secondo cui un soggetto ha maggiori probabilità di successo all’aumentare del numero delle persone con cui intrattiene rapporti superficiali (small worlds). http://en.wikipedia.org/wiki/Small_world_phenomenon Gli “small worlds” sono caratterizzati dagli hub o «connettori», (Gladwell). I connettori vengono descritti come «un pugno di persone che possiede l’abilità davvero straordinaria di stringere un numero eccezionale di amicizie e di conoscenze». Gli hub esistono in qualsiasi campo; ad esempio in Internet fungono da hub i motori di ricerca più visibili, nelle molecole delle cellule un hub è l’ATP. Reti, nodi, hub ... topologia Trovare esempio di reti “small world” nelle varie scienze: chimica, sociologia, informatica Reti, nodi, hub ... topologia Contrariamente all’ipotesi del caos e dell’assenza di leggi nelle reti, da qui alla formulazione matematica di una legge il passo è breve: si deve infatti ad un’idea ispirata dal sociologo italiano Pareto la legge di potenza «a invarianza di scala», secondo la quale «pochi grandi eventi determinano la maggior parte delle azioni». http://it.wikipedia.org/wiki/Rete_a_invarianza_di_scala Reti peer-to-peer (p2p) “Le reti peer-to-peer non sono proprietà di alcuna autorità centrale, e non possono essere controllate, spente o ridimensionate da qualsivoglia autorità. Sono infrastrutture magiche, reti le cui mappe formano strane topologie a infinite dimensioni di bellezza e caos insuperabili, stravaganti ammassi tecnologici di fili controllati da ad-hocrazie i cui membri operano ognuno nel proprio interesse. In poche parole la tecnologia peer-to-peer è maledettamente perversa. E' esoterica. Non si può bloccare. E' divertente, molto divertente.” Cory Doctorow http://en.wikipedia.org/wiki/Cory_Doctorow http://boingboing.net/ Polemica Eco U.Eco “Lo studente stava dicendo che oggi esiste Internet, la Gran Madre di tutte le Enciclopedie, dove si trovano la Siria, la fusione fredda, la guerra dei trent'anni e la discussione infinita sul più alto dei numeri dispari. Stava dicendo che le informazioni che Internet gli mette a disposizione sono immensamente più ampie e spesso più approfondite di quelle di cui dispone il professore. E trascurava un punto importante: che Internet gli dice 'quasi tutto', salvo come cercare, filtrare, selezionare, accettare o rifiutare quelle informazioni. A immagazzinare nuove informazioni, purché si abbia buona memoria, sono capaci tutti. Ma decidere quali vadano ricordate e quali no è arte sottile. Questo fa la differenza tra chi ha fatto un corso di studi regolari (anche male) e un autodidatta (anche se geniale).” Polemica Eco Recentemente in Rete è nata una nuova polemica con Eco, nata da un'intervista i cui ribadisce l'importanza dei filtri nella cultura. Molti argomentano che la Rete2.0 sta appunto sviluppando proprio tecniche per filtrare maggiormente il mare-magnum della rete (tag, motori di ricerca + potenti, social bookmarking) http://semioweb.msh-paris.fr/AAR/FR/video.asp?id=1030&ress=3280&v http://www.rodoni.ch/busoni/umbertoeco/umbertoeco.html http://natinonfummo.blogspot.com/2006/01/umberto-eco-e-internet.htm http://punto-informatico.it/p.aspx?id=1700152&r=PI La visione di Bruce Sterling Bruce Sterling creò anni fa il Dead Media Project ( www.deadmedia.org) in cui spiega che “i media uno-a-molti, centralizzati, che hanno calpestato il ventesimo secolo come animali preistorici, si adattano poco all'ambiente tecnologico post-moderno” Gli strumenti (i media) non muoiono, muoiono gli strumenti di accesso (i delivery, le tecnologie): la parola stampata non ha soppiantato quella orale, il cinema non ha ucciso il teatro, la tv non ha ucciso la radio. Vecchi e nuovi media sono stati costretti a coesistere. La “fallacia della scatola nera” (“tutti i contenuti passeranno per un'unica scatola nera nei nostri soggiorni) ... nelle nostre case le scatole nere continuano ad aumentare! Invece la musica oggi la ascoltiamo dal lettore DVD, dall'autoradio, dal walkman, dal cellulare, dalla radio via Web, dal PC, dall'iPod ... (Jenkins) La visione di Bruce Sterling http://nova.ilsole24ore.com/nova24ora/2007/11/la-visione-di-b.html Vorrei parlarvi anche della mia visione sul Web 2.0, che si può descrivere come una rete di idee connesse tra loro: linee e cerchi che si intersecano e si connettono l’uno con l’altro. Sono molte le cose che distinguono il Web 2.0 dal Web 1.0. Anzitutto, gli effetti del network. Il Web 2.0 nasce direttamente dal web – si sviluppa in esso stesso – mentre il Web 1.0 era stato trasferito dalla carta al Web. Non solo: il Web 2.0 non è destinato a espandersi su una sola rete, ma è costruito per venir diffuso ovunque, attraverso qualsiasi mezzo. Io, per esempio, sono sempre in cerca di qualcosa che funzioni meglio, rispetto a quel che gia esiste. La ricerca giornaliera di ognuno di noi porta a scoprire il futuro. Infatti, il futuro è dove tu lo trovi. L'intelligenza collettiva di P. Lévy “I fabbricanti di oggetti diventano sempre più rari e il loro lavoro, esteso e meccanizzato, è sempre più soggetto all'automazione. I lavori legati al trattamento dell'informazione stanno scomparendo, perché le reti di comunicazione autointelligenti assolveranno ben presto da sole la maggior parte delle loro funzioni. L'ultima frontiera risulterà l'essere umano, ciò che non è automatizzabile: l'apertura di mondi sensibili, l'invenzione, la relazione, la creazione continua del collettivo. La produzione antropica del futuro si basa su due elementi indissolubili:la cultura delle qualità umane – di cui fanno parte le competenze – e l'edificazione di una società vivibile. Tutto si svolge come se l'umano, in tutta la sua estensione e varietà. fosse diventata la nuova materia prima. Noi qui lottiamo affinché l'intelligenza collettiva diventi l prodotto finito per eccellenza. L'intelligenza collettiva: fonte e fine di tutte le ricchezze, aperta e incompiuta, output paradossale perché interiore, qualitativo e soggettivo. L'intelligenza collettiva: prodotto infinito della nuova economia dell'umano”