Università di Camerino Corso sul Web 2.0

annuncio pubblicitario
Università di Camerino
Dipartimento di Matematica e Informatica
dicembre 2007
Corso sul Web 2.0
(blog, wiki, tag, social networks: cosa sono, come si usano e
perchè sono importanti)
Docente: Carlo Vaccari
Responsabile sviluppo software e tecnologie web - ISTAT
Docente di Informatica - Facoltà di Economia “Federico Caffè”,
Università di RomaTre
[email protected]
Il presente materiale è distribuito con la licenza Creative
Commons “Attribuzione - Non commerciale - Condividi allo
stesso modo - 2.5 Italia”, reperibile presso il seguente sito
Internet: http://creativecommons.org/licenses/by-nc-sa/2.5/it/.
Programma
11.12
* Presentazione reciproca
* Introduzione e programma del corso
* Il "vecchio" Web e il Web 2.0
* Caratteristiche generali Web 2.0
* Cos'è un blog
* Creazione del blog del corso
12.12
* Caratteristiche dei contenuti del Web 2.0
* Cos'è un wiki
* Wikipedia in teoria e in pratica
* Discussione e consolidamento blog
13.12
* Caratteristiche tecniche Web 2.0 (Ajax, RSS, ...)
* Tagging e Social Network (Flickr, MySpace, ...) in teoria e in pratica
* Il mondo Google: docs.google, OpenSocial, Android, ...
* Discussione e consolidamento blog
14.12
* Caratteristiche sociali Web 2.0 e dei suoi utenti: numero e caratteristiche
* Social bookmarking e mash-up in teoria e in pratica
* Discussione e consolidamento blog
* Chiusura del corso: cosa fare dopo?
Un po' di teoria:
Leggi di Metcalfe, Reed e Pareto, curve di potenza, Coda Lunga, teoria delle reti, polemiche e visioni
Presentazione
Chi siamo e perché siamo qui
Esperienze 2.0
Conferma indirizzi mail
Esercitazione 1
Web e Web 2.0
http://paolo.evectors.it/italian/worldOfEnds.html :
Internet:
- ha tre virtù:
● nessuno la possiede
● chiunque la può usare
● ognuno la può migliorare;
- non è complicata: semplicità base dell'architettura
- non è una cosa, è un protocollo (un “accordo”)
- è stupida: il suo non essere intelligente consente alla rete di
espandersi e aggirare gli ostacoli
- aggiungere valore le toglie valore
- tutto il valore di Internet si sviluppa ai margini
il Web oggi
http://gandalf.it/dati/index.htm
Information Revolution
http://www.youtube.com/watch?v=-4CV05HyAbM
Neutralità della rete:
- uguaglianza di tutti i bit;
- garanzia di interconnessione;
- libertà di accesso.
http://it.wikipedia.org/wiki/Neutralit%C3%A0_della_Rete
http://www.visionpost.it/files/pdf_vision/vision_08_06.pdf
Web 2.0 definizione generale
Definizione: v. http://it.wikipedia.org/wiki/Web_2.0
Oppure da http://en.wikipedia.org/wiki/Web_2.0 : “Il termine
Web 2.0 fa riferimento a una serie di servizi o comunità
percepite come di "seconda generazione" - come siti di "social
networking", wiki e folksonomie - che intendono facilitare la
collaborazione e lo scambio di informazioni tra gli utenti
Web....”
Non si sa cos'è ma si misura
http://punto-informatico.it/p.aspx?id=1948763
Web 2.0 secondo Tim Berners Lee
“Il web è più che un'innovazione tecnica. L'ho progettato
perché avesse una ricaduta sociale, perché aiutasse le persone
a collaborare, e non come giocattolo tecnologico. Il fine ultimo
del web è migliorare la nostra esistenza reticolare nel mondo”
Tim Berners Lee
http://www-128.ibm.com/developerworks/podcast/dwi/cm-int082206.t
Web 2.0 secondo Tim Berners Lee
“Web 1.0 was all about connecting people. It was an
interactive space, and I think Web 2.0 is of course a piece of
jargon, nobody even knows what it means. If Web 2.0 for you
is blogs and wikis, then that is people to people. But that was
what the Web was supposed to be all along.
And in fact, you know, this Web 2.0, quote, it means using the
standards which have been produced by all these people
working on Web 1.0. It means using the document object
model, it means for HTML and SVG and so on, it's using HTTP,
so it's building stuff using the Web standards, plus Javascript of
course.
So Web 2.0 for some people it means moving some of the
thinking client side so making it more immediate, but the idea
of the Web as interaction between people is really what the
Web is. That was what it was designed to be as a collaborative
space where people can interact.”
Cosa vi colpisce?
Web 2.0 definizione
L’elemento innovativo consiste nella combinazione di vecchie
tecnologie e standard (come HTML, CSS, XML, JavaScript,
DOM) per realizzarne di nuove (come AJAX), che consentono lo
sviluppo di applicazioni Web di nuovo tipo, le Rich Internet
Applications (RIA) (classico esempio di RIA è Google Maps).
L’innovazione
tecnologica
risiede
nell’assemblaggio
(Innovation in Assembly) di tecnologie e servizi preesistenti.
Queste combinazioni prendono il nome di mash-up e hanno
il vantaggio di essere semplici da realizzare e di non aver
bisogno di conoscenze informatiche approfondite. Un
esempio di mashup è dato dall’unione di Google Maps e
Flickr che consente di visualizzare su una mappa le foto
relative alla zona selezionata.
http://www.ictv.it/file/full/8/web-20/
Web 2.0 mappa
Strumenti 2.0: una prima lista
Tipologia strumento Web 2.0 Esempi Social bookmarking Blue Dot, del.icio.us,
StumbleUpon, Technorati Calendaring Google Calendar, bCal, Yahoo!
Calendar Images / Video Sharing YouTube, Flickr, FOTOLOG Collaborative authoring Wikipedia, PBwiki, Basecamp,
Social Text, Writely Social Networking MySpace, Orkut, Facebook, Hi5,
Friendster, LinkedIn, Neurona,
Ning Blogs Blogger, Skyblog, dBlog, Splinder,
WordPress
Communications tools Windows Live Messenger, ICQ,
Google Talk, Yahoo! Messenger Social games Second Life, Half Life, World of
Warcraft, Lineage, RuneScape,
Final Fantasy XI, Online Chess
Feed reader / News aggregator
Netvibes, Google Reader,
FeedReader, Liferea, Straw
File sharing
Gnutella, eMule, BitTorrent,
Napster, Kazaa
E poi http://www.technorati.it/siti-del-web20/
Web 2.0 caratteristiche generali
Le caratteristiche più importanti del Web 2.0 sono quindi:
* I siti Web 2.0 sono piattaforme che consentono una forte
interazione tra utenti
* Gli utenti usufruiscono di servizi innovativi mediante
potenti interfacce grafiche
* Gli utenti forniscono il valore aggiunto con l’autoproduzione
di contenuti e la condivisione della conoscenza. In tal
modo si sfrutta e si valorizza l’intelligenza collettiva, vero
motore del Web 2.0
* I servizi offerti vengono aggiornati di continuo, in modo da
correggere rapidamente gli errori e aggiungere nuove
funzionalità non appena disponibili (questa caratteristica viene
anche chiamata “perpetual beta”) Web 2.0 caratteristiche generali
Da un punto di vista funzionale, invece, ciò che caratterizza il
web 2.0 è sostanzialmente la centralità ed il protagonismo
dell'utente che da fruitore diviene sempre più un controllore
dei propri dati e dei contenuti che naviga, facendosi stesso
produttore
di
informazioni
e,
contemporaneamente,
principale giudice di quanto prodotti da altri.
Tutte le grandi storie di successo del web 2.0 mostrano un
vero
e
proprio
ribaltamento
dei
paradigmi
della
comunicazione cui la generazione adulta era abituata. Dalla
comunicazione "da uno a molti" si passa a quella "da molti a
molti".
Web 2.0 primi esempi
Il Page Rank di Google, basato sul “giudizio” degli altri siti
Wikipedia enciclopedia con voci decise e costruite dagli utenti
Ebay dove ogni venditore e compratore ha una reputazione
pubblica determinata dagli altri utenti a seconda dei propri
comportamenti.
Google Maps dove gli utenti usano in maniera creativa dati
standardizzati, dando vita a nuovi servizi
Blog, dove la partecipazione sostituisce la comunicazione,
i Social Network (Youtube, Flickr, Myspace, Facebook) che
raccolgono ed organizzano contenuti forniti dagli utenti
Blog
Abbreviazione di web log (registro di eventi) diari pubblico.
Sito web gestito da software specializzato (della famiglia dei
CMS) che rende elementare inserire e pubblicare testi
immagini ed elementi multimediali.
Le unità di contenuto (post) sono pubblicate in successione
temporale
Uso di template per la User Interface
Da una a tre colonne, header, ev. footer
In coda ad ogni post, firma, data/ora, permalink (coordinate
assolute) per garantire un link permanente anche quando il
posto viene archiviato
http://it.wikipedia.org/wiki/Blog
http://www.dblog.it/public/post/la-definizione-di-blog-660.asp
Blog
Secondo Geert Lovink (Internet non è il paradiso,
Apogeonline) i blog sono “i figli disillusi del crollo delle dot
com”: lo scoppio della “bolla di Internet”
(2000 http://en.wikipedia.org/wiki/Internet_bubble)
ha ridimensionato le aspettative vero il Web e fatto
riconsiderare gli investimenti.
Il blog, con la sua semplicità di utilizzo, i suoi costi
contenuti, le sue funzionalità “per tutti” si è imposto come
nuovo “modo di fare internet”
Il Wall Street Journal descriveva così i blog “ ... riflettono il
meglio di Internet, un medium informale, anarchico,
commercialmente ingenuo e affascinante ... “
Blog
A volte con feed RSS (v. avanti), a volte con “tag” (v. avanti)
Installati su server o sito già esistente (gratuito/pagamento)
Nati nel 1997, esplosi nel 2002, numero oggi?
http://www.sifry.com/alerts/archives/000493.html
http://www.sifry.com/main/
http://blogdidattici.splinder.com/
http://www.edidablog.it/nuke/
Corporate Blog
Corporate blog
Una delle nuove frontiere del blog è quello aziendale, un
blog scritto e curato da un'azienda per condividere
informazioni relative a propri prodotti e servizi.
A differenza di un sito, dove la comunicazione è diretta
dall'azienda agli utenti, un corporate blog prevede uno
scambio bidirezionale. Di fatto un blog aziendale costituisce
un nuovo modello di marketing, e per la prima volta nella
storia dell'IT
strumenti nati per il mondo consumer
approdano al business.
Un corporate blog rappresenta un momento di incontro, di
avvicinamento, tra i producer delle informazioni e i
consumer. Non solo: già il fatto stesso di aprire un blog vuol
dire iniziare un processo di analisi dei propri punti deboli.
Corporate Blog
1) Infrastruttura tecnologica: il corporate blog deve essere
in ambiente open source, scalabile ed efficiente
2) Comunicazione: l'aspetto del blog deve essere gradevole e
informale. Utenti al centro della piattaforma che non devono
“subire” passivamente le informazioni
3) Post: chi scrive deve essere un dipendente dell'azienda e
deve scrivere in prima persona
4) Agli user generated content si risponde non con freddi
comunicati aziendali ma con modalità 2.0, ovverosia
company generated content
5) Aggiornamenti: niente peggio di un sito trascurato o
aggiornato raramente. Perpetual beta e largo alla creatività!
6) Promuovere l'utilizzo degli RSS più che delle newsletter
Esempi:
http://www.infotel.it/it/corporate-blog-quando-usarli-e-perche.html
Microblogging
http://www.apogeonline.com/webzine/2007/10/30/23/200710302301
http://en.wikipedia.org/wiki/Micro-blogging
http://www.twitter.com
Esercitazione 2
Se c'è tempo Esercitazione 3
Web 2.0 caratteristiche dei contenuti 1
User Generated Content ! (Read/Write Web)
L'utente diventa un protagonista “attivo”
Alfabetizzazione: importante non solo “leggere” il Web ma anche
saper scrivere il Web (Jenkins): è il nuovo Digital Divide?
http://en.wikipedia.org/wiki/User-generated_content
Un miliardo di utenti, circa 100 milioni di siti web (blog inclusi...)
Riuso dei contenuti e aggregazione
Web 2.0 caratteristiche dei contenuti 2
“L’aspetto collettivo e condiviso delle applicazioni Web 2.0 sviluppa
naturalmente dinamiche in cui i contenuti e il valore prodotto dai
singoli utenti sono messi in comune, sono oggetto di lettura e
revisione collettiva e – in molti casi – sono modificati, etichettati e
a loro volta ricondivisi da terzi.
L’informazione, non è più così una materia fissa e intoccabile, ma
contenuto fluido e aperto, che si arricchisce in virtù della sua
condivisione e modificazione costante.”
Web 2.0 caratteristiche dei contenuti 3
Riuso
I contenuti non esauriscono la loro funzione e il loro ciclo vitale al
momento della loro prima pubblicazione online ma, grazie al riuso,
sono impiegati per servizi terzi, associati a contenuti simili,
proposti per la discussione o la valutazione, etichettati e
socialmente condivisi, ecc.
Il principale riuso dei contenuti online è l’aggregazione: associare
contenuti da fonti diverse in base a parametri specificati in
precedenza.
La tecnologia alla base degli aggregatori è la syndication, cioè la
fornitura di contenuti da parte di siti Web e servizi online. Il
principale formato di syndication è la Really Simple Syndication
(RSS) un sistema di distribuzione dei contenuti attraverso file XML,
che consentono di aggiornare costantemente i fruitori di un
servizio ogni volta che i contenuti sono aggiornati.
Web 2.0 caratteristiche dei contenuti 4
Usare un aggregatore, sia come software sia come servizio online,
consente di “abbonarsi” a più fonti di contenuto (ad esempio a
numerosi blog o mailing list o siti) e ricevere gli aggiornamenti di
contenuto ogni volta che questi si aggiornano.
Un vantaggio ulteriore dell’aggregazione è la sua sinergia coi tag:
grazie a servizi come Technorati è possibile “abbonarsi” ad uno o
più tag e ricevere i contenuti pertinenti più aggiornati man mano
che vengono pubblicati.
Web 2.0 caratteristiche dei contenuti 5
Folksonomy - Tag e metadati
Nel Web 2.0, per tag si intendono delle etichette che vengono
apposte ai contenuti, caratterizzandoli per categorie e parole
chiave.
L’idea alla base dei tag è semplice: fare sì che i contenuti siano
ricercabili, correlabili e utilizzabili in base a parametri semantici
(qualitativi e non quantitativi) definiti dagli utenti.
Le applicazioni 2.0 consentono di affiancare ad ogni contenuto uno
o più tag, scelti dall'utente. Questo avviene per tutti i tipi di
contenuti, dal testo (blog) alle fotografie, fino ai video su YouTube.
Web 2.0 caratteristiche dei contenuti 6
Folksonomy e Web semantico
L’idea di dotare i contenuti della Rete di un sistema tassonomico
condiviso, aperto e generato dal basso è chiaramente in contrasto
con i principi del Web semantico, il cui obiettivo è costruire un
ordine dall’alto.
Il tagging invece produce, in un modo assolutamente anarchico ed
efficiente, una folksonomy (neologismo formato dall’unione di folk
– compare/amico – e taxonomy – tassonomia/classificazione), il cui
obiettivo non è produrre l’ordine assoluto, ma il “miglior disordine
possibile”, cioè quello che soddisfa le ricerche e sa adattarsi ad un
insieme di contenuti in evoluzione, modificando costantemente il
proprio sistema classificatorio in base al modello mentale
emergente tra gli utenti.
http://it.wikipedia.org/wiki/Web_semantico
Web 2.0 caratteristiche dei contenuti 7
Geolocalizzazione
La geolocalizzazione può essere intesa come una applicazione
particolare del tagging. È possibile infatti categorizzare i contenuti
anche da un punto di vista geografico: apporre un tag che
contenga informazioni di carattere geografico a un’immagine, un
testo o un video è molto facile e può portare a un notevole
aumento del valore del contenuto
vedi es. flickr http://flickr.com/photos/37385373@N00/161862482/
e foto picasaweb
Web 2.0 caratteristiche dei contenuti 8
Geolocalizzazione
Dal punto di vista dell’utente significa poter creare una mappa
commentata, personalizzata e condivisibile con terzi.
Esistono scenari d’applicazione innovativi ancora tutti da esplorare
Il GIS nel Web 2.0 evolve nel Geoweb, l'associazione su web di
informazioni e luoghi di una mappa, per rendere fruibile agli utenti
un sistema per accedere alle informazioni tramite una mappa
piuttosto che tramite parole chiave. Il Geoweb è quindi un tipico
esempio di Web 2.0 e le sue fondamenta tecnologiche risiedono
nei nuovi servizi quali Google Earth, NASA World Wind, Windows
Live Local, Yahoo Maps, etc. A differenza dei GIS, che viene
utilizzato soprattutto da aziende e istituzioni, il Geoweb è uno
strumento alla portata di un numero molto più alto di utenti. E così
molti più utenti sono diventati produttori di informazioni statistiche.
http://maps.google.com etc
Come inserire le mappe di Google nelle applicazioni
http://www.google.com/intl/en/press/annc/embed_maps.html
Geotagging
Un tipico servizio 2.0 derivante dall'incontro di mappe e
tagging è il geotagging: associare ad oggetti multimediali
una o più parole chiave e visualizzarli in una mappa. Ad
esempio è possibile associare ad una foto il nome del luogo
dove è stata scattata, posizionando l'immagine in una
mappa. Le foto acquistano quindi una dimensione in più,
quella spaziale, oltre ad una serie di informazioni aggiuntivi.
Si può ad esempio realizzare una mappa di una città che
contiene le immagini di alcuni particolari (un hotel, un
monumento, un locale...) e arricchirlo con delle informazioni
(qualità dell'hotel, cenni storici sul monumento, giudizio sul
locale...). Si realizza, anche in questo caso, un mashup tra
servizi diversi.
Oppure realizzare la mappa di un viaggio:
Wiki: introduzione
I wiki, inventati nel 1995 da Ward Cunnigham,si sono affermati
come uno dei mezzi più semplice per collaborare in rete.
Un wiki, termine in lingua hawaiana che significa “rapido” oppure
“molto veloce”, è un ambiente web di condivisione e gestione di
documenti e file dove gli utilizzatori possono visualizzare e
aggiungere contenuti, ma anche di modificare i contenuti esistenti
inseriti da altri utilizzatori.
http://www.youtube.com/watch?v=-dnL00TdmLY
Con il termine wiki si può anche far riferimento al software utilizzato
per creare un sito web wiki.
Sulla
tecnologia
Wiki
si
basa
infatti
il
funzionamento
dell’enciclopedia online Wikipedia.
Un wiki permette di scrivere collettivamente dei documenti in un
semplice linguaggio usando un browser. Caratteristica distintiva
della tecnologia wiki è la facilità con cui le pagine possono essere
create e aggiornate.
Wiki Farm
http://en.wikipedia.org/wiki/Wiki_farm
Per chi è interessato a creare il proprio wiki, ci sono molte
"wiki farm" disponibili, qualcuna delle quali gestisce anche
wiki privati, protetti da password. La wiki-farm più famosa è
Wikia, fondata nel 2004 da Jimmy Wales.
Wikipedia: introduzione
Wikipedia, uno dei siti + importanti del Web 2.0 [13].
Wikipedia è nata nel 2001 con l’obiettivo di creare
un'enciclopedia libera e affidabile. Jimmy Wales, fondatore del
progetto, parla di “uno sforzo per creare e distribuire una
enciclopedia libera della più alta qualità possibile ad ogni singola
persona sul pianeta nella propria lingua”.
Il risultato è andato oltre ogni aspettativa: Wikipedia, con oltre
otto milioni di voci e nove milioni di utenti registrati, rappresenta
la più grande collezione di sapere umano. Wikipedia esiste in
oltre 250 lingue differenti e riceve oltre 60 milioni di accessi al
giorno.
http://it.wikipedia.org/wiki/Wikipedia
Wikipedia: introduzione
http://www.alexa.com/data/details/traffic_details?url=wikipedia.org
Wikipedia: qualche numero
http://en.wikipedia.org/wiki/Wikipedia:Size_of_Wikipedia
http://en.wikipedia.org/wiki/Category:Wikipedia_statistics
Nel 2006 la rivista Nature ha confrontato Wikipedia e la
prestigiosa Enciclopedia Britannica, giungendo a un giudizio
di sostanziale parità quanto ad autorevolezza (3.86 errori
per voce per Wikipedia, 2.92 l’enciclopedia britannica).
Licenza GFDL
http://it.wikipedia.org/wiki/Portale:Comunit%C3%A0 ,
vandalismi, wikilink
Wikipedia: segue
“Il punto non è che ogni voce di Wikipedia sia probabilistica,
ma che l'intera enciclopedia si comporto in modo
probabilistico ... Per dirlo in altro modo, nella Britannica la
qualità varia da, diciamo, 5 a 9 con una media di 7. In
Wikipedia varia da 0 a 10, con una media, diciamo, di 5. Ma
visto che Wikipedia ha dieci volte le voci della Britannica,
avete maggiori probabilità di trovare su Wikipedia una voce
sensata su un qualunque argomento”
“A rendere Wikipedia davvero straordinaria è il fatto che
migliora nel corso del tempo: si cura organicamente come
se la sua enorme e crescente armata di addetti fosse un
sistema immunitario”
“Il vero miracolo di Wikipedia è che questo sistema, aperto
ai contributi di utenti non professionisti, non collassi
nell'anarchia” C. Anderson, La Coda Lunga
Wikipedia: segue
Un estensione anche per Wikipedia:
http://it.wikipedia.org/wiki/Greasemonkey
Chi modifica Wikipedia? (applicazione 2.0!)
http://www.lkozma.net/wpv/index.html
Altri progetti Wikimedia:
http://it.wikipedia.org/wiki/Wikimedia_Foundation#Progetti
Wikipedia: segue
Ricerca sulle motivazioni dei Wikipediani
Voto
Fun
6.10
Ideology
5.59
Values
3.96
Understanding
3.92
Enhancement
2.97
Protective
1.97
Career
1.67
Social
1.51
* : livelli di significatività
Correlazione con l'impegno
[0.322***]
[0.110]
[0.175*]
[0.296***]
[0.313***]
[0.306***]
[0.185*]
[0.027]
http://delivery.acm.org/10.1145/1300000/1297798/p60-nov.pdf?key1=1
Wikipedia: esercizio
Altre tematiche di Wikipedia:
Ironia
http://it.wikipedia.org/wiki/Wikipedia:Scherzi_e_STUBidaggini
Vandalismo
http://it.wikipedia.org/wiki/Wikipedia:Gestione_del_vandalismo
Wikipedia: segue
La qualità di Wikipedia non sorprende: come dice Eric
Raymond, “dato un numero sufficiente di occhi, tutti i bug
vengono a galla”.
http://it.wikipedia.org/wiki/Legge_di_Linus
Ci sono proposte finalizzate a migliorare i contenuti: ad
esempio due presentate alla XVI International World Wide
Web Conference:
Definizione della reputazione degli utenti sulla base delle
modifiche effettuate. Se il contributo resiste alle modifiche
si guadagna reputazione, mentre se il contributo viene
sostituito dalla versione precedente la reputazione scende.
In
questo
modo
si
mantiene
la
democraticità
dell’enciclopedia e lo spirito collaborativo
●
Segnalazione degli interventi faziosi
considerazione l’identità dell’utente.
●
prendendo
in
Enterprise Wiki
In precedenza abbiamo visto come il wiki può rappresentare
un valido supporto alle attività lavorative. E allora
nell'ambito degli strumenti Enterprise 2.0 una azienda può
dotarsi di piattaforme wiki proprie, fornendo così un servizio
wiki ad uso dei dipendenti.
Ciò consente di tenere all'interno della rete software e dati
che costituiscono i wiki. Inoltre con un sistema di wiki
aziendale sono possibili diverse integrazioni tra cui la
realizzazione di applicazioni aggiuntive. E allora l'uso di wiki
può costituire un utile strumento per la gestione delle
informazioni aziendali, di clienti, di progetti e del flusso
documentale.
Enterprise Wiki
Negli USA queste piattaforme sono molto diffuse e utilizzate
sia per progetti interni localizzati in una o più sedi, che per
quelli con terze parti come fornitori o clienti. Gartner
prevede che il 50% delle grandi aziende adotteranno
sistemi di wiki entro il 2009.
In Europa e in particolare in Italia queste soluzioni stentano
a trovare posto nelle strategie IT aziendali, ma qualcosa sta
cambiando, e lo dimostrano le nuove versioni in lingua
italiana messe a punto dai fornitori.
I principali fornitori di sistemi di Enterprise wiki sono PmWiki
ed il progetto Open di Socialtext. Ovviamente è anche
possibile sviluppare una propria piattaforma wiki senza
ricorrere a fornitori esterni.
Web 2.0 : tecniche
A partire da AJAX: liberazione dalla logica HTML – Post/Get –
modello asincrono (stateless)
con le GUI “WIMP” (windows, icons, menus and pointers) il Web si
avvicina alle applicazioni desktop
e nascono le Rich Internet Applications (RIA)
Strumenti tecnici:
AJAX (Asynchronous JavaScript and XML)
ATOM – RSS
API : integrazione – interazione
MASH-UP : ibridazione – plugin (XUL!)
Web 2.0 – spostamento sui server
Fondamentale il ciclo centralizzazione – decentramento.
mainframe
Tecnologia
→ LAN e fat client
→ Web e thin client
IBM
Monopolista
→ Microsoft
→ Google
Centrali (locali)
Dati
→ Decentrati (locali) → Centrali (globali)
Web 2.0 – tecniche: AJAX
Componenti di AJAX
- XHTML e CSS per formattare le informazioni
- gli oggetti del DOM, manipolato tramite Javascript, per
permettere di interagire con l’informazione presentata
- l’oggetto XMLHttpRequest per scambiare dati in
modo asincrono con il server
- XML come formato per scambiare dati tra server e client
http://it.wikipedia.org/wiki/AJAX
http://gmail.com: la prima apparizione di AJAX... (vedi sorgente)
Per approfondire:
http://antirez.com/articoli/spaghettiajax.html
http://www.onajax.com/
L'articolo che ha coniato il termine:
http://www.adaptivepath.com/ideas/essays/archives/000385.php
(V. articolo e link)
Web 2.0 : strumenti di sviluppo
2.0: ideali le tecnologie “agili”:
● evoluzione costante
● fasi di sviluppo suddivise in piccole interazioni
● attenzione alle esigenze correnti del progetto
http://it.wikipedia.org/wiki/Metodologia_agile
Disponibili alcuni framework:
● Ruby On Rails, fw open MVC basato su Ruby (linguaggio ad oggetti)
● Django, fw open MVC Python
● Symfony fw open MVC PHP5 con supporto AJAX
● Zend framework fw open PHP5 dai creatori di PHP
● Google web toolkit fw open java, plugin per IDE (Eclipse NetBeans)
http://en.wikipedia.org/wiki/Comparison_of_web_application_frameworks
Il W3C http://www.w3.org/2006/rwc/ organizza un gruppo su “Rich
Web Clients Activity” con il compito di sviluppare specifiche per
migliorare le funzionalità client-side del Web. Attività su formati
standard per la navigazione e su “Web API”.
RSS
Il formato RSS (acronimo di RDF Site Summary ed anche di
Really Simple Syndication) si basa sull'XML, da cui eredita
semplicità, l'estensibilità e la flessibilità.
Quasi alternativa alla tradizionale pagina Web
RSS dal 1999, Atom dal 2004
Numerosi i vantaggi che hanno i sistemi basati su RSS
rispetto alle tradizionali newsletter: la possibilità di avere un
unico aggregatore per diverse fonti, evitare lo spam,
ricevere in tempo reale un'informazione selezionata e
personalizzata.
Aggregatori anche su browser: Firefox Segnalibri Live, Wizz
RSS e altri add-on
Esercizio: testare e commentare
software e come plugin Firefox)
aggregatori
(come
RSS
A proposito di aggregatori, oltre a Netvibes (che ora è
disponibile anche sui cellulari) Google Reader ha di recente
raggiunto una funzionalità molto interessante, il plug-in
Gears, che consente la lettura dei feed anche offline.
Uno degli ultimi servizi online offerti è Grazr, una
piattaforma che consente di organizzare le informazioni
trovate su web.
Un ottimo strumento per memorizzare feed e link di
interesse, e condividerli con altri utenti.
http://www.google.it/reader/ Google reader
https://addons.mozilla.org/it/firefox/addon/424 WizzRSS
Non perdersi: Netvibes
La banda larga e miliardi di pagine di web sono risorse di
valore solo se utilizzate con accuratezza ed intelligenza. E
allora è utile ottimizzare i tempi, razionalizzare il percorso di
navigazione e non perdersi nel sovraccarico cognitivo che
spesso diventa caos.
Ad esempio Netvibes (così come Google Reader) consente
di riorganizzare fonti informative in griglie personalizzate.
Ha più di 5 milioni di utenti.
La pagina personalizzata, facile da implementare con
semplici drag and drop, consente di tenere sott'occhio gli
aggiornamenti dei siti di interesse, la posta, le news etc. Non bisogna più preoccuparsi di andare a cercare le
informazioni sul web ma sono queste che arrivano, in
maniera automatica, sul nostro aggregatore.
http://www.netvibes.com/
Web 2.0 tecniche: XUL
XUL (XML User Interface Language) è un linguaggio per definire
interfacce grafiche
Usato per scrivere Firefox, Thunderbird e relative estensioni e
plugin
Vedere su https://addons.mozilla.org/it/firefox/browse/type:1 le
estensioni.
Installarne alcune (le + 2.0!) e commentare (v. RSS e social)
http://it.wikipedia.org/wiki/XUL#Riferimenti_cinematografici
Web 2.0 : esempi mash-up
http://www.deeario.it/2006/08/21/mashup-mappa-dei-blog-italiani/
http://larica-virtual.soc.uniurb.it/nextmedia/2007/02/08/eyes-on-yahoo-pi
http://pipes.yahoo.com/pipes/
MashMaker di Intel
http://softwarecommunity.intel.com/articles/eng/1505.htm
http://code.google.com/apis/gdata/basics.html
Mobilizzare siti
http://carlo1.mofuse.mobi/
creato da http://snapple.mofuse.com/users/
RSS è una tecnologia che consente di “disaccoppiare” sito e
visualizzazione ...
Tagging
Tagging è l'attribuzione di una o più parole chiave (i tag,
appunto) a file presenti su piattaforme online di
condivisione (documenti, video, audio, etc) come i video di
YouTube o le foto di Flickr.
Il tagging nasce da diverse esigenze tra cui la necessità di
gestire l’enorme mole di dati presenti online: nel Web 1.0, e
a maggior ragione in quello 2.0, l'information overloading (il
sovraccarico cognitivo) rappresenta una rilevante questione
e una classificazione risulta necessaria per il recupero di
informazioni pertinenti.
Tagging
http://www.rashmisinha.com/archives/05_09/tagging-cognitive.html
Analisi cognitiva del tagging di Rashmi
Il tagging può essere visto come una evoluzione della
tassonomia classica: “from taxonomy to folksonomy”, dove
folksonomia
è
un
neologismo
che
indica
una
categorizzazione collaborativa di informazioni mediante
l'utilizzo di parole chiave scelte liberamente.
E' un termine che a tutti gli effetti appartiene al mondo 2.0:
nella sua definizione si fa infatti riferimento alla
metodologia utilizzata da gruppi di persone che collaborano
spontaneamente
per
organizzare
in
categorie
le
informazioni disponibili attraverso il web.
http://it.wikipedia.org/wiki/Folksonomia
Tag cloud
La nuvola delle parole chiave (tag cloud) fornisce poi una
rappresentazione dei common tags. In sintesi la nuvola di
tag è la rappresentazione visiva delle etichette o delle
parole chiave usate in un sito web. La lista è normalmente
presentata in ordine alfabetico, con la caratteristica di
attribuire un font più grande alle parole più importanti.
Esempio: http://www.flickr.com/photos/tags/
Storia:
http://www.10people.net/blog/index.php/2007/05/30/tag-clouds-cosa-so
http://it.wikipedia.org/wiki/Tag_cloud
http://tagcrowd.com/
Google: la ricerca
Ogni motore di ricerca è composto da tre componenti:
- crawler
- database
- interfaccia e software di query
Il crawler è un software specializzato che naviga la rete e
porta le pagine nell'indice. Il crawler tiene anche nota dei
link che trova e li usa per raggiungere via via nuove pagine
con nuovi link ...
L'indice è un enorme database dove le pagine vengono
memorizzate con tutti i metadati e dove tutte le parole
vengono “invertite” creando indici/chiavi per ognuna di esse
L'interfaccia interpreta la richiesta dell'utente, tenta di
interpretarla e passa la richiesta al “query processor” che
agisce sull'indice
Google: la ricerca
Le ricerche normalmente sono molto stringate: il 20 % usa
una sola parola, quasi il 50% è composta da due o tre
parole,solo 5% più di sei parole
Anche le “ricerche” si distribuiscono come frequenza
secondo una curva “a coda lunga” : circa il 50% delle
ricerche quotidiane sono UNICHE.
A proposito conoscete il GoogleWhacking?
Circa l'85% degli utenti usa i primi quattro motori: G, Y, Ms e
AOL (G > 50%)
Il traffico sui motori di ricerca ha due picchi giornalieri uno
la mattina in ufficio e uno la sera al rientro a casa.
Il costo approx di acquisizione di un cliente varia dai 70$
della pubblicità postale, ai 50$ della pubblicità online, i 20$
delle pagine gialle fino agli 8$ (!) dei link legati alla ricerca
Google: la ricerca prima
Primi motori: Archie 1990 (ftp con query a linea di
comando), poi Veronica 1993 con Gopher. Ricerche SOLO
sul titolo dei documenti.
Poi il Web e allora (1994) WebCrawler, il primo a indicizzare
il testo delle pagine.
Primo motore valido: AltaVista (dal 1995), nato nei
laboratori DEC, grazie all'Alpha a 64bit poteva lanciare un
migliaio di crawler contemporaneamente. Il primo anno
AltaVista rispose a 4 miliardi di ricerche!
Poi DEC venduta a Compaq che trasformò AltaVista in un
portale (moda di quegli anni)
Yahoo! Nasce come “La guida al WWW di Jerry e David” con
approccio a directory (v. archive.org), grande successo
grazie anche al legame con Netscape. Yahoo! Usò sempre il
suo servizio a directory e quando introdusse la ricerca usò
motori esterni: prima OpenText, AltaVista, poi Inktomi e
Google.
Google: la nascita
Brin e Page studiavano a Stanford e Page impostò la tesi sul
Web come grafo con Terry Winograd.
Il progetto BackRub (1995) era un sistema per scoprire link
sul Web, conservarli per analizzarli e ripubblicarli per far
vedere quali pagine puntavano a una data pagina. Nel 1996
BackRub iniziò ad indicizzare il Web e, attraverso
l'interpretazione dei grafi, a valutare anche l'importanza
relativa dei siti e quindi dei loro link.
Nasce qui il concetto base dell'algoritmo PageRank che
tiene in considerazione sia il numero dei link che riceve un
sito sia il numero dei link verso ognuno dei siti collegati al
primo.
Nel 1998 Brin e Page pubblicarono le caratteristiche di
PageRank nell'articolo “The anatomy of a large-scale
hypertextual Web search engine” e fondarono Google inc
con sede nel classico garage.
Google: l'algoritmo
Il successo del motore sta nell'algoritmo di ricerca,
ovviamente coperto da segreto, anche se sulla rete ci sono
le sue caratteristiche più importanti.
Un esperto di SEO ha sviluppato un teorema, il "Teorema di
Randfish" http://www.seomoz.org/
(Utilizzo delle parole chiave * 0.3) +
(Importanza del dominio * 0.25) +
(Link in ingresso * 0.25) +
(Dati degli utenti * 0.1) +
(Qualità del contenuto * 0.1) +
(Spinte manuali) (Penalizzazioni automatiche & manuali) =
PunteggioGoogle
Fattori nell’utilizzo delle parole chiave (Keywords):
* Parole chiave nel tag del titolo
* Parole chiave nei tag degli header
* Parole chiave nel testo del documento
* Parole chiave nei link interni che puntano alla pagina
* Parole chiave nel nome di dominio e/o nell’URL
Google: l'algoritmo
Importanza del dominio:
* Storia della registrazione
* Età del dominio
* Importanza dei link che puntano al dominio
* Rilevanza del dominio sull’argomento basata sui link in
entrata ed in uscita
* Utilizzo storico & pattern dei link verso il dominio
Punteggio dei link in entrata:
* Età dei link
* Qualità dei domini che mandano il link
* Qualità delle pagine che mandano il link
* Testo dei link
* Valutazione della quantità/peso dei link (Pagerank)
* Rilevanza sull’argomento delle pagine che mandano i
link
Google: l'algoritmo
Dati degli utenti:
* Storia della percentuale dei click (CTR) sulla pagina nei
risultati dei motori di ricerca
* Tempo speso dagli utenti sulla pagina
* Numero di ricerche per URL/nome del dominio
* Storia delle visite/utilizzo dell’URL/nome del dominio
degli utenti che Google può monitorare (toolbar, wifi,
analytics, ecc.)
Punteggio della qualità del contenuto:
* Potenzialmente dato a mano per le ricerche e per le
pagine più popolari
* Fornite da valutatori interni di Google (vedi Henk)
* Algoritmi automatizzati per valutare il testo (qualità,
leggibilità, ecc.
Google: l'algoritmo
Il brevetto originale dell'algoritmo Pagerank depositato nel 1998
U.s Patent file # 6,285,999 ;
METHOD FOR NODE RANKING IN A LINKED DATABASE
Descrizione: Un metodo che assegna una classificazione di
importanza a documenti contenuti in un archivio, come ad esempio
ogni archivio che contenga citazioni e rimandi, il Web o tutti gli altri
database ipermediali. Il valore assegnato ad un documento è
calcolato partendo dal valore dei documenti che lo richiamano.
Inoltre, la classificazione di un documento è calcolata prendendo in
riferimento una costante che rappresenta la probabilità che un
ricercatore all'interno del database salterà in maniera casuale da un
documento all'altro. Il metodo è assai utile per implementare la
qualità dei risultati di un motore di ricerca per archivi ipermediali
come ad esempio il Web, all'interno del quale la qualità dei
documenti è molto variabile.
Inventori: Page; Lawrence (Stanford, CA)
Assegnatario: The Board of Trustees of the Leland Stanford Junior
University (Stanford, CA)
Google: l'algoritmo
La formula semplificata http://it.wikipedia.org/wiki/PageRank
Dove:
* PR[A] è il valore di PageRank della pagina A
* T1...Tn sono le pagine che contengono almeno un link verso A
* PR[T1] ... PR[Tn] sono i valori di PageRank delle pagine T1 ... Tn
* C[T1] ... C[Tn] sono il numero complessivo di link contenuti nella
pagina che offre il link
* d (damping factor) è un fattore deciso da Google e che nella
documentazione originale assume valore 0,85. Può essere
aggiustato da Google per decidere la percentuale di PageRank che
deve transitare da una pagina all'altra e il valore di PageRank
minimo attribuito ad ogni pagina in archivio.
Google: l'algoritmo
PageRank in dettaglio (da http://www.google.it/intl/it/why_use.html )
Basato sullo specifico carattere "democratico" del Web, PageRank
sfrutta la vastissima rete di collegamenti associati alle singole
pagine per determinarne il valore. In pratica, Google interpreta un
collegamento dalla pagina A alla pagina B come un "voto" espresso
dalla prima in merito alla seconda. Tuttavia, non si limita a calcolare
il numero di voti, o collegamenti, assegnati a una pagina. Oltre a
effettuare questo calcolo, Google prende in esame la pagina che ha
assegnato il voto. I voti espressi da pagine "importanti" hanno più
rilevanza e quindi contribuiscono a rendere "importanti" anche le
pagine collegate.
Google: l'algoritmo
PageRank assegna ai siti Web importanti e di alta qualità un "voto"
più elevato di cui Google tiene conto ogni volta che esegue una
ricerca. È evidente che oltre ad essere importanti, le pagine devono
corrispondere ai termini ricercati. Quindi, Google integra PageRank
con sofisticate procedure di ricerca testo per trovare le pagine che
sono rilevanti e rispondono ai criteri di ricerca indicati. Google non si
limita solo ad esaminare il numero di volte in cui una parola
specifica è presente nella pagina, ma esamina tutti gli aspetti del
contenuto della pagina (e dei contenuti delle pagine correlate ad
essa) per stabilire se risponde o meno ai criteri di ricerca indicati.
Integrità
I complessi metodi di ricerca automatici di Google sono studiati per
limitare al minimo le interferenze degli utenti. Sebbene vengano
visualizzati annunci pubblicitari accanto ad alcuni dei risultati più
rilevanti, Google non vende spazi pubblicitari all'interno dei risultati
(cioè i clienti non possono acquistare un PageRank superiore). Le
funzioni di ricerca di Google offrono un sistema semplice, onesto ed
obiettivo per trovare siti Web di alta qualità contenenti dati
rispondenti a quelli ricercati.
Google
Il motore di ricerca di Google è in breve tempo diventato
uno dei più importanti punti di accesso ad Internet. Fare una
ricerca con Google, oppure to google, sono diventati parte
del linguaggio comune. Non lo sai? Chiedi a Google.
Ma i servizi offerti da Google (BigG!) non si limitano più al
“solo” motore di ricerca. E una grossa fetta del Web 2.0 in
qualche modo appartiene proprio a BigG: YouTube, Google
Earth/Maps/Video/Calendar/Reader... e Google sta per
entrare nel mercato dei servizi mobili
Google Dance
Google Dance: periodicamente Google aggiorna gli algoritmi
del motore per penalizzare quello che considera spamming
da parte degli specialisti SEM/SEO (Search Engine Marketing
/ Optimization): la posizione nell'indice è così importante
che ad esempio vengono scritti siti composti solo da link per
far “salire” i siti che pagano.
C'è il dubbio che questi attacchi continui contro lo
spamming commerciale serva anche a “spingere” i servizi
di pubblicità AdWords. https://adwords.google.it/select/Login
Altre frodi sono possibili con AdSense, dove i proprietari dei siti
guadagnano dai click sui link pubblicitari dei propri siti; a volte
si usano programmi robot, altre volte lavoratori offshore per
clikkare sui link e guadagnare (si stima che circa il 30% dei
budget pubblicitari vadano dispersi così)
https://www.google.com/adsense/login/it/?hl=it&gsessionid=HlXsYrGNM
AdSense ha contribuito a servire (creare?) la coda lunga della
pubblicità, portando centinaia di migliaia di aziende a fare
pubblicità e migliaia di siti a offrirla .
Google
Nel 2007 Big Brother Award Italia ha assegnato a Google il
poco invidiabile premio di “Tecnologia più invasiva”,
motivando in questo modo la decisione:
“Brin, uno dei fondatori di Google ama ripetere ai suoi
dipendenti "Don't be evil." "Non fate i cattivi". E' diventato
ormai lo slogan aziendale. L'ammirazione generale per
Google ed i servizi che rende ed il suo successo come
azienda non può nascondere che ogni ricerca, ogni e-mail,
ogni post in Google Groups viene registrato ed analizzato,
anche se in modo anonimo, e le analisi fatte puntano alla
profilazione del navigatore. Google, date le dimensioni, è
l'entità al mondo potenzialmente più pericolosa per la
privacy.
Con il recentissimo acquisto di DoubleClick.com, gigante
dell'advertising e della profilazione online, che ingigantisce
le potenzialità di data mining di Google, sembrerebbe che il
motto possa ora diventare "Don't be evil, buy the Devil!".
Altri dubbi su Google: http://www.ippolita.net/google
Google OpenSocial
Google OpenSocial API è una serie di API che permetteranno
di realizzare applicazioni sociali, sfruttando i dati messi a
disposizione da numerosi siti web. MySpace ha già
annunciato la propria adesione al programma.
Uno dei primi servizi di che sfruttano questo nuovo set di
API è Orkut, il social network di Google (molto più popolare
in Sud America che in Europa), che ha messo a disposizione
una sandbox per iniziare a sviluppare applicazioni.
Il set di API comuni permetterà agli sviluppatori di non
imparare diversi linguaggi per creare applicazioni per
svariati siti. Attualmente tra i servizi che hanno aderito ad
OpenSocial figurano: Engage.com, Friendster, hi5, Hyves,
imeem, LinkedIn, MySpace, Ning, Oracle, orkut, Plaxo,
Salesforce.com, Six Apart, Tianji, Viadeo, e XING.
Google OpenSocial 2
http://code.google.com/apis/opensocial/
Ma: We don’t want to have the same application on multiple
social networks. We want applications that can use data from
multiple social networks. (Tim O’Reilly su OpenSocial, titolo del
commento “It's the data, stupid!”)
Google ZeitGeist
http://en.wikipedia.org/wiki/List_of_acquisitions_by_Google
Android
A novembre 2007 Google annuncia, insieme alla Open
Handset Alliance, Android, una piattaforma opensource
basata su Linux per lo sviluppo di applicazioni per cellulari.
Il progetto si pone come concorrente di Nokia Symbian e di
Microsoft Mobile.
Dell'alleanza fanno parte tra gli altri HTC, Intel, Motorola,
Qualcomm, NVIDIA, LG, Samsung e molte azienda
telefoniche
tra
cui
NTT
DoCoMo,
China
Mobile,
TelecomITalia, T-Mobile
Google tricks
Google racconta quali informazioni vengono raccolte quando
viene utilizzato il motore di ricerca e quello che viene fatto per
proteggere la privacy degli utenti:
http://www.youtube.com/watch?v=iPkvNr2cpqg
Ricerca nei blog: http://blogsearch.google.it/
Storia delle ricerche http://www.google.com/history
Altro: http://www.google.com/intl/it/options/ e
http://labs.google.com/
domini – ombra e altri trucchi dei SEO:
http://www.google.it/support/webmasters/bin/answer.py?answer=35291
Web 2.0 caratteristiche sociali 1
Uso sociale del software
software che offe agli utenti uno strumento di relazione (di
solito attraverso la condivisione di contenuti).
- condivisione di valore: applicazioni puramente sociali in cui
ad una maggiore partecipazione degli utenti corrisponde un
aumento di qualità e quantità dei contenuti e di conseguenza
un maggior valore del servizio. La dimensione collettiva,
quindi, è la garanzia dell’esistenza e della qualità del servizio.
Es. Wikipedia
- condivisione di un valore e cooperazione: la cooperazione su
contenuti non solo condivisi ma co-creati, diventa un ulteriore
elemento di valore. La possibilità di “creare insieme”
contenuti aumenta di un ordine di grandezza il grado di
relazione tra utenti e favorisce la socialità fin dal momento di
generazione del contenuto. Es. docs.google.com
Web 2.0 caratteristiche sociali 2
Il valore dei contenuti delle applicazioni Web 2.0
Dato che un servizio acquisisce contenuti (e valore) grazie
alla partecipazione diretta degli utenti e dei visitatori, le
applicazioni Web 2.0 sono in un certo senso “ostaggio” di chi
le utilizza.
Un'alta e costante partecipazione degli utenti è condizione di
sopravvivenza dei siti di social networking
La popolarità di un servizio Web 2.0 sembra essere un
elemento così critico da sovrastare talvolta la qualità stessa.
Web 2.0 caratteristiche sociali 3
La partecipazione
Nel panorama Web 2.0 creare, stimolare, mantenere la
partecipazione significa garantire il successo per un servizio
online.
Diversi gradi di partecipazione consentiti agli utenti: la libertà
di intervento sul contenuto è un elemento critico per
comprendere il livello di valorizzazione dell’utente, dei suoi
contenuti e delle sue relazioni.
- accesso limitato ai soli utenti registrati e coinvolti nella
condivisione (Linkedin)
- accesso limitato ai soli utenti registrati (Flickr)
- accesso relazionale aperto a tutti gli utenti (blog)
- accesso completamente aperto a tutti gli utenti (alcuni wiki)
Web 2.0 caratteristiche sociali 4
La partecipazione - segue
Molti servizi adottano politiche miste di promozione della
partecipazione. (es. alcune parti del sito visibili a tutti)
Un altro elemento di cui tenere conto è il grado di
personalizzazione della partecipazione consentito agli utenti.
Sistemi come WordPress, per esempio, permettono ai titolari
dei blog di impostare diversi livelli di accesso alla produzione
dei contenuti e consentono di abilitare i commenti a tutti o
solo a utenti registrati.
Altro aspetto da valutare: molti servizi Web 2.0 fanno
concorrere un utilizzo gratuito e un utilizzo a pagamento.
Ovviamente agli utenti paganti sono garantiti servizi di
maggiore qualità, funzionalità aggiuntive, mentre i non
paganti sono esclusi.
Web 2.0 caratteristiche sociali 5
Principi fondanti: fiducia, credibilità e controllo sociale
Nell’interazione con una tecnologia, la credibilità è rilevante
quando questa:
- è una fonte di conoscenze
- consiglia o fornisce istruzioni agli utenti
- riporta misure
- riferisce i risultati delle operazioni svolte
- comunica il proprio stato
- offre delle simulazioni
- ricrea ambienti virtuali
Web 2.0 caratteristiche sociali 6
Principi fondanti: fiducia, credibilità e controllo sociale
La possibilità offerta da molti servizi Web 2.0 di abbinare ai
contenuti un feedback proveniente da altri utenti (commenti,
valutazioni, o anche semplici “tag”, nei casi (es. del.icio.us) in cui il
fatto stesso di inserire un sito tra i propri bookmark implica una
valutazione positiva) contribuisce a rinforzare la credibilità del
servizio, agendo, in particolare, sulle seguenti dimensioni:
- Credibilità “di superficie” (il fatto che altri utenti abbiano
usato/valutato positivamente un servizio contribuisce a creare una
prima impressione positiva);
- Reputazione (livello di credibilità attribuito ad un certo oggetto
sulla base delle valutazioni di attori terzi ritenuti “autorevoli”: può
essere sfruttato se l’utente conosce le persone che “commentano”
un certo contenuto, ad esempio, perché sono suoi amici o perché
ha già avuto modo di apprezzare la bontà dei loro consigli).
Web 2.0 caratteristiche sociali 7
Principi fondanti: fiducia, credibilità e controllo sociale
Tra gli elementi che influiscono sul livello di fiducia accordato ad
una certa applicazione Web 2.0 sono importanti:
- la possibilità di confrontarsi con le scelte di altri utenti (ad
esempio, si attribuisce fiducia ad un determinato servizio perché è
stato scelto da molte altre persone, eventualmente conosciute, e
quindi costituisce una sorta di “standard di fatto” e sembra offrire
maggiori garanzie di stabilità)
- il fatto che organizzazioni relativamente consolidate decidano di
acquisire determinati servizi fornisce una sorta di garanzia sulla
stabilità e sull’affidabilità di questi ultimi
Web 2.0 caratteristiche sociali 8
Nuove dimensioni del diritto d’autore: Copyright e Copyleft
Produzione, condivisione, valutazione e immissione in un circuito di
relazioni di un contenuto aprono molti problemi legati al copyright,
mettendo in alcuni casi in crisi il concetto di copyright stesso.
Un contenuto condiviso e commentato, infatti, a chi appartiene? È
interamente di proprietà di chi lo ha scritto o è un’opera attribuibile
ad autore materiale e commentatori? E se sì, in quali misure? Sono
sufficienti e adeguati i soli criteri quantitativi, per stabilire il grado
di autorialità?
Il tutto, per di più, si complica nel caso di contenuti collettivi o cocreati in redazioni distribuite: ad esempio, chi è l’autore e il titolare
dei diritti editoriali delle definizioni di Wikipedia?
Web 2.0 e opensource
Quale è il rapporto tra il Web 2.0 e il fenomeno opensource?
http://opensourceblog.biz/blog/2007/09/17/open-source-economia-della-co
Le comunità opensource sono un esempio di Wikinomics (v.) e di
Smart Mobs (v.)
Web 2.0 quanti utenti
Interessante notare che i siti “2.0” compaiono in buona posizione
nelle classifiche dei siti più visitati; ad esempio nella lista compilata
da Alexa quasi tutti i siti elencati compaiono tra i 100 siti più visitati,
superati solo da siti come Google, Yahoo! e MSN. Il buon
posizionamento in classifica indica che l'utilizzo dei siti Web 2.0 è
divenuto ormai “di massa”.
http://www.alexa.com/site/ds/top_sites?ts_mode=global&lang=none
Utenti internet
http://www.harrisinteractive.com/harris_poll/index.asp?PID=827
http://www.internetworldstats.com/
Web 2.0 quanti utenti
Nel corso del 2007 i media hanno dato risalto ad sottoinsieme molto
ristretto dei siti Web 2.0, YouTube e Second Life primi fra tutti.
Ma quali sono i siti realmente più visitati e utilizzati? La risposta non
è semplice, dato che l’oggetto stesso della rilevazione non è
perfettamente definito.
Tuttavia alcune indagini hanno provato a far luce sul alcuni aspetti
del fenomeno. Secondo l’indagine del progetto JISC dell’Università di
Oxford, la regina del Web 2.0 è Wikipedia.
http://tallblog.conted.ox.ac.uk/index.php/2007/03/16/some-real-data-on-we
Il livello di partecipazione
Riguardo la reale partecipazione degli utenti ai siti “collaborativi”
da parte di alcuni autori viene sottolineata la disuguaglianza di
partecipazione (participation inequality) che porterebbe solo l'uno
per cento degli utenti ad essere veramente attivi.
http://www.useit.com/alertbox/participation_inequality.html
http://en.wikipedia.org/wiki/1%25_Rule
Numero utenti “attivi”
Social network
Le “social network” sono gli eredi di Usenet, la rete dei
gruppi di discussione che usa(va) il protocollo nntp.
Oggi i gruppi e i loro archivi sono sotto la “protezione” di
Google che ne garantisce la continuazione in modalità
“web”.
http://groups.google.it/groups/dir?hl=it&sel=33592333&expand=1
Molti termini delle social network (e di tutte le applicaizoni
2.0) sono nati nelle comunità Usenet.
Cosa resta dei gruppi Usenet?
Social network
http://it.wikipedia.org/wiki/Rete_sociale
Domanda: di chi è MySpace?
Social Bookmarking
Basato sul tagging
http://del.icio.us/
vedi con plugin
http://www.stumbleupon.com/ con plugin
Il servizio consente agli utenti di tenere traccia dei siti preferiti
(mettere un bookmark, e cioè un segnalibro), condividerli con
altri, scoprire i preferiti degli altri utenti: il tutto si basa
sull'associazione di parole chiave ai segnalibri. Non i vecchi
segnalibri che si affollano sul browser: un insieme di tag con i
quali porre l'accento sugli aspetti maggiormente interessati
per l'utente (rendendo quindi facile ritrovare informazioni a
distanza di tempo).
Il meccanismo di bookmarking e tagging è semplificato dalla
possibilità di aggiungere al proprio browser pulsanti con cui
marcare i preferiti e aggiungere parole chiave.
Social Bookmarking
StumbleUpon ha recentemente inaugurato la nuova
funzione SearchReviews che consente agli utenti iscritti al
servizio StumbleUpon di godere dell’integrazione del
sistema di rating con Google News, Yahoo News, Flickr,
Wikipedia e YouTube.
Le valutazioni assegnate ai siti dagli utenti, quindi,
compaiono anche nelle pagine dei risultati di Google, Yahoo,
MSN, AOL e Ask. Il social bookmarking diventa di fatto parte
integrante del browsing online.
«Se dovesse avere successo Search Reviews potrebbe
raggiungere una massa critica capace di rivoluzionare il
modo di valutare la popolarità online e quindi gli strumenti
di misura», ha commentato Carla Thompson, product
analyst di Guidewire Group.
Esercizio: testare StumbleUpon e commentare
Second Life
I media hanno enfatizzato, spesso a sproposito, il successo di
Second Life, un ambiente virtuale dove farsi una vita parallela
con grafica 3D.
Ogni utente può scegliersi o personalizzarti un personaggio (in
figura 29 un individuo standard, un Avatar) e viaggiare e vivere
in un mondo virtuale, spendendo o guadagnato linden dollars,
convertibili (al 30 maggio 2007 è scambiato col Dollaro 266 a
1).
Ovviamente non mancano gli utenti che navigano per
curiosità. L’universo SL è estremamente eterogeneo: si va
dalla compravendita di “immobili” alle scommesse, dallo
spaccio di droga alla prostituzione, etc.
Recentemente
alcune
indagini
hanno
fortemente
ridimensionato sia il numero di utenti attivi che la rilevanza del
business.
Altri aspetti 2.0
Archiviazione online
Intranet 2.0
Ricerca 2.0
Wom
PA 2.0
Archiviazione online 2.0
Le nuove tendenze di Internet, il miglioramento delle
tecnologie software di memorizzazione dati e la drastica
diminuzione dei costi hardware sono alla base del successo
di un nuovo tipo di servizio: l'archiviazione dei propri dati
online (storage online).
In parte ciò avviene già con altri strumenti 2.0: le foto di
Flickr non sono sul nostro pc bensì su un server, come i
video su YouTube, o le informazioni presenti su wiki, etc.
Una delle caratteristiche del 2.0 è infatti il parziale
spostamento dei propri dati dal proprio computer ad un
server condiviso.
Archiviazione online 2.0
Lo spostamento di dati sui server, se da un lato comporta
un differente grado di sicurezza, dall'altra presenta il
notevole vantaggio di avere a disposizione uno spazio in
remoto dove archiviare i propri dati e gestirli come se
fossero presenti in un disco locale.
Generalmente i servizi offerti sono gratuiti nella versione
base e a pagamento per quelli premium, con un maggior
spazio di storage e funzionalità aggiuntive. SteekRad
esempio offre un GB di spazio gratis, mentre XDrive ne
garantisce 5GB.
E' poi possibile sfruttare sistemi già esistenti: è questo il
caso di Gmail Drive shell extension, che consente di
utilizzare lo spazio messo a disposizione dall'account di
posta Google (Gmail). (anche plugin di Firefox)
Intranet 2.0
Una intranet 2.0 potrebbe allora prevedere le seguenti
funzionalità:
1) Informazioni e oggetti multimediali (moduli di richieste,
video, pubblicazioni, etc), utilizzando tag ed interfacce
desktop. Il tagging generato dai dipendenti costituisce esso
stesso valore aggiunto sulle informazioni e i servizi offerti.
2) Applicazioni software "tagged" in una repository: ciò
faciliterebbe il riuso del codice e quindi una riduzione dei
tempi di lavoro e ad un aumento della qualità.
3) Condivisione di siti di interesse comune: realizzare quindi
una sorta di del.icio.us fatto in casa, orientato alle tematiche
d'interesse. Oppure utilizzare uno dei servizi presenti su
Internet con una utenza aziendale(es. Favoriti.it.).
4) Implementazione di robusti motori di ricerca, ad esempio
sfruttando Google, sia per le ricerche interne che per quelle
su web.
Esercizio: immaginiamo una Intranet della facoltà
Ricerca 2.0
Un buon strumento di analisi del web per ricercatori è
costituito dai motori di ricerca personalizzati: ad esempio
con Google Custom Search Engine (CSE) è possibile
creare, in pochi minuti e senza il bisogno di competenze
informatiche, un proprio motore che effettua ricerche solo
su un predefinito sottoinsieme di siti.
Altra tematica interessante sono i “motori di ricerca
semantici”, es. http://www.grokker.com
Grokker è uno strumento di ricerca visuale che raggruppa i
risultati per categoria, con il quale è possibile effettuare
una ricerca sfruttando il database di Yahoo! ed ottenere i
risultati sotto forma di mappe navigabili dove le sfere
rappresentano le categorie e i quadrati sono i link.
Passando il mouse sopra un quadrato appaiono anche
informazioni quali il nome del sito, la descrizione, l’ultimo
aggiornamento e l’indirizzo. Cliccando apparirà anche
un’anteprima della pagina web.
Ricerca 2.0
Sempre di semantica e di motori di ricerca si parla con
askWiki
http://askwiki.com/AskWiki/index.php/Main_Page
Proviamo ad usarlo: riflessioni?
Wom
Uno sguardo fuori: cosa diranno di noi?
Abbiamo visto come alcune tecniche web 2.0 possano
aiutare ad organizzare, produrre e valorizzare le
informazioni presenti in una azienda. E “ascoltare” la voce
dei dipendenti. Un ragionamento analogo va fatto per quel
che accade all'esterno, e in particolare captare le "voci" che
riguardano la propria realtà.
Ormai da molto tempo viene riconosciuta l'importanza del
passaparola (word of mouth, Wom) degli utenti, siano essi consumatori o cittadini che si rivolgono alla Pubblica
Amministrazione. Il Wom su web è una informazione
preziosa per valutare i propri prodotti o servizi.
Lo strumento principale con cui si legge di sè è la rassegna
stampa. Il web 2.0 offre nuovi strumenti, rapidi e spesso a
costo zero, ad esempio, sfruttando la logica dei feed, è
possibile “seguire” quanto si scrive sui blog sulla propria
organizzazione.
Wom
Funzionalità come quella di Watchlist di Technorati (v.)
consentono appunto di tenere d'occhio quanto scritto in rete
su aziende e istituzioni. Tuttavia Technorati concentra la
propria ricerca sui blog, specialmente quelli stranieri, e allora
per seguire ad esempio una realtà italiana è preferibile un
servizio come quello di Google News.
Inoltre all'interno dell'azienda è poi interessante rendere
disponibili le informazioni raccolte. Xfruits (v.), ad esempio,
consente di produrre un file in formato pdf contenenti i feed
raccolti in rete. Oppure Google Alert invia automaticamente
per
email
le
informazioni
(non
sempre
accurate)
sull'argomento prescelto, con la frequenza desiderata. In ogni
caso lo strumento principale per rispondere al Wom ed
interagire con i propri utenti è il corporate blog (v. sopra).
PA 2.0
Esempi di pubblica amministrazioni che hanno capito
l'importanza dell'approccio web 2.0 ai servizi on line
impattando direttamente su alcuni elementi dell'attività
della PA come ad esempio:
La regolazione: l'ufficio brevetti americano ha abbattuto i
tempi e la litigiosità collegata alla propria attività
coinvolgendo i cittadini in una rete di "validatori" dei
brevetti, il cui livello di attendibilità è individuato dagli stessi
altri componenti della rete.
La collaborazione interna: le sedici agenzie statunitensi di
intelligence sono riuscite ad eliminare i colli di bottiglia
burocratici attraverso cui dovevano passare tutte le
informazioni realizzando "intellipedia" una rete interna per
tutti gli agenti che consente la circolazione di informazioni a
livello ufficioso.
PA 2.0
L'usabilità: Il comune di Torino ha attivato sul proprio sito
una serie di applicazioni che semplificano la navigazione,
dalla possibilità di personalizzare l'home page, a finestre in
cui compaiono le parole chiavi più frequenti, per facilitare la
ricerca dei servizi più utili, fino al nuovo esperimento di
social
tagging
TaggaTO
http://www.comune.torino.it/taggato/
L'accountability: In Gran Bretagna il Parlamento ha lanciato
un sito di petizioni on line nel quale ognuno può proporre la
propria petizione che ha raggiunto il traguardo dei 3 milioni
di
utenti.
http://www.parliament.uk/parliamentary_publications_and_archives/pub
Comunicazione interna e creazione del senso di
appartenenza: in questo senso particolarmente significativa
l'esperienza della Intranet della regione Veneto
http://www.forumpa.it/archivio/4000/4400/4470/4478/cogo-vicine.html
Software da provare: Flock
http://punto-informatico.it/p.aspx?i=2107453
http://www.flock.com/
Basato sul codice di Firefox, Flock si distingue da
quest'ultimo per la capacità di integrarsi con i principali siti
di social networking e di blogging, tra i quali Twitter,
Facebook, YouTube, WordPress, Blogger, Xanga e del.icio.us.
Tale integrazione permette agli utenti di visualizzare
contatti, contenuti e risorse online in un'apposita barra
laterale del browser, e condividere per mezzo di semplici
operazioni di drag and drop testi, link, foto, video ed altri
contenuti digitali.
Riflessioni complessive
Commentare il post e testare almeno tre dei siti 2.0 proposti ...
commenti?
http://www.masternewmedia.org/it/Web_2.0/scopri_tutti_gli_usi_e_le_occas
Una delle prime definizioni, la più citata:
http://www.oreilly.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.h
Un'altra raccolta di definizioni: commenti?
http://www.dynamick.it/web-20-una-definizione-in-10-punti-534.html
500 definizioni
http://www.basecamphq.com/web2-500.html quale vi piace?
Test finale
Conoscete la Netiquette?
http://netiquette20.wikispaces.com/
Quanto avete imparato?
http://web20.designinterviews.com/quiz.php
Bibliografia
Tim Berners Lee, L'architettura del nuovo Web, Feltrinelli, Milano
A.L. Barabasi, Link. La scienza delle reti, Einaudi, Torino, 2004
Henry Jenkins, Cultura convergente, Apogeo, Milano, 2007
dal web 2.0 ai media sociali: Tracce e percorsi della
partecipazione in rete A cura di CSP s.ca.rl. - Lara Marcellin,
Fabiana Vernero, Ferdinando Ricchiuti, Enrico Sola, Andrea Toso,
Giovanni Calia, CSP s.c.a.r.l., http://www.csp.it
Chris Anderson, La coda lunga, Codice edizioni, Torino, 2007
Sergio Maistrello, La parte abitata della rete, Tecniche Nuove,
Milano, 2007
Howard Rheingold, Smart Mobs, Raffaello Cortina, Milano 2003
Pierre Lévy, L'intelligenza collettiva (per un'antropolgia del
cyberspazio), Feltrinelli, Milano 1996
Web 2.0: le teorie
●
Leggi di Metcalfe, Sarnoff e Reed
●
Coda Lunga
●
Legge di Pareto
●
Teoria delle reti: sei gradi di separazione e small worlds
●
Eco, Sterling e Lèvy
La legge di Metcalfe
Una considerazione sugli utenti del mondo 2.0: il loro numero.
Milioni di utenti giornalieri rendono famose piattaforme come
YouTube o Flickr.
E allora torna ad essere attuale la Legge di Metcalfe: la legge prende
il nome del suo inventore, lo statunitense Robert Metcalfe, e risale
alla fine degli anni settanta: "L’utilità e il valore di una rete sono pari
ad n(n-1), dove n è il numero degli utenti".
http://it.wikipedia.org/wiki/Legge_di_Metcalfe
Metcalfe, inventore di Ethernet, fondatore di 3Com e altre società, è
anche famoso per avere predetto il collasso di Internet nel 1995 e
per essersi “mangiato” letteralmente, come promesso, l'articolo
della previsione.
La legge di Reed
La legge di Metcalfe era
un'evoluzione della legge di
Sarnoff
(pioniere
della
radiofonia) che sosteneva
la relazione lineare tra gli
utenti di una rete e il suo
valore.
David Reed sostiene che il
valore delle reti non cresce
proporzionalmente
al
quadrato degli utenti, ma in
modo esponenziale. Questa
legge vale per le GFN
(group forming network),
reti dove gruppi di persone
usano reti di computer per
formare gruppi.
Immagine da www.kaltura.com
Coda Lunga
L'espressione (“The Long Tail”) è stata coniata da Chris
Anderson per descrivere alcuni modelli economici e
commerciali come Amazon.com o Netflix. Il termine è anche
utilizzato nelle scienze statistiche per definire modelli di
distribuzione della ricchezza o di usi lessicali. In queste
distribuzioni, una popolazione ad alta frequenza o ampiezza
è seguita da una popolazione a bassa frequenza o
ampiezza, che diminuisce gradatamente.
In molti casi, gli eventi poco frequenti o di bassa ampiezza –
la coda lunga – possono complessivamente superare in
numero o in importanza la porzione iniziale della curva, di
modo che presi tutti insieme rappresentano la maggioranza.
Anderson sostiene che l'insieme dei prodotti a bassa
richiesta o con ridotti volumi di vendita può occupare una
quota di mercato equivalente o superiore a quella dei pochi
bestseller o blockbuster, se il punto vendita o il canale di
distribuzione sono abbastanza grandi.
Coda Lunga
http://www.masternewmedia.org/it/nicchie_di_mercato_la_Long_Tail_e_i_suoi
Coda Lunga
“Quel semplice quadro con pochi hit rilevanti e tantissimi nonhit irrilevanti sta oggi assumendo l'aspetto di un confuso
mosaico di milioni di mini-mercati e micro-star ... il mercato di
massa si sta tramutando in una massa di nicchie.”
“Il nuovo mercato di nicchie non sta sostituendo il tradizionale
mercato di hit: sta solo dividendo, per la prima volta,la scena
con quest'ultimo.”
“Per cent'anni abbiamo vagliato, e scartato, tutto tranne i bestseller, così da usare nel modo più efficace possibile scaffali
espositivi costosi, schermi, canali e attenzione.”
“... pensate ai costi di distribuzione in calo come ad una marea
che si ritira, rivelando una nuova terra che c'è sempre stat, ma
che era sommersa.”
Coda Lunga
“Regola del 98%: in un mondo di costi di packaging quasi
inesistenti e di accesso istantaneo a quasi tutti i contenuti in
formato digitale, il consumatore acquista almeno una copia di
quasi tutti i prodotti disponibili (appunto il 98%).”
Esempio tipico di “coda lunga”: i servizi
pubblicazione, come http://www.lulu.com/it/
di
auto-
Coda Lunga
“La prima forza, la produzione democratizzante, popola la
coda. La seconda forza, la distribuzione democratizzante,
rende disponibile qualunque prodotto. Deve entrare in scena la
terza forza ... il passaparola amplificato (sfruttare l'opinione dei
consumatori) per far incontrare domanda e offerta e aiutare la
gente a trovare ciò che vuole in questa nuova superabbondanza di varietà, perché il potenziale del mercato a coda
lunga si possa dispiegare in tutta la sua potenza.”
Legge di Sturgeon: “il 90% di
http://gandalf.it/arianna/sturgeon.htm
tutto
è
spazzatura”
La legge di Sturgeon, che bloccherebbe gli utenti in librerie
“fisiche”, in Rete diventa solo un problema di filtri (v. Eco).
Abbiamo bisogno di filtri efficienti (Google!?) per separare
segnale e rumore.
Coda Lunga ed evoluzione delle culture
Stiamo passando da un cultura di massa (mainstream) a una
cultura massicciamente parallela.
C'è un'esplosione di varietà e di scelta di contenuti, che
trasforma la cultura di massa in milioni di microculture che
coesistono e interagiscono ... “ultranicchie”... “tribù di
interesse” culturali.
E' la fine della cultura del “boccione d'acqua” o del “prime
time” televisivo, dove la maggior parte della popolazione
ascolta, legge e guarda lo stesso bacino di hit; ora si va verso
le microculture, dove ognuno si interessa di cose diverse.
Fenomeno parallelo nel mondo della produzione: just-in-time
personalizzazione del prodotto ed eliminazione delle scorte,
ma ... qui si parla di bit e non di atomi!
Coda Lunga ed evoluzione delle culture
Conseguenze sulla qualità?
“E con questo non sto dicendo che la tv sia volgare e stupida
perché le persone che compongono il Pubblico sono volgari e
stupide. La tv è ciò che è per il semplice motivo che la gente
tende ad assomigliarsi terribilmente proprio nei suoi interessi
volgari, morbosi e stupidi, e a essere estremamente diversa
per quanto riguarda gli interessi raffinati, estetici e nobili.” (D.
Foster Wallace)
Legge di Pareto
L'economista Pareto rilevò che il 20 % della popolazione
possedeva l'80% della ricchezza, un rapporto abbastanza
costante nel tempo e nello spazio. Da questa “legge” nacque
la regola dell'80/20.
Il linguista Zipf scoprì che una legge equivalente valeva per la
frequenza delle parole: alcune erano molto frequenti, altre
molto meno, secondo un rapporto assolutamente prevedibile:
la frequenza era uguale a 1/n, dove n era la posizione in
classifica (la seconda è usata ½ della prima, la terza 1/3 e così
via) (legge di Zipf).
La forma classica delle distribuzioni di potenza è y=axk in
questo caso y è la diffusione e x la classifica per popolarità .
Legge di Pareto
Nota: 80 e 20 sono percentuali di diversi fenomeni: NON
devono dare 100! Spesso il 10% dei prodotti cumula l'80%
delle vendite!
Nei mercati “a coda lunga” la regola 80/20 cambia in tre modi:
- si possono offrire molti più prodotti
- le vendite si diffondono più equamente tra hit e coda (la coda
si ingrossa) grazie ai filtri e alle raccomandazioni
- il profitto si ripartisce equamente tra hit e non-hit
Nei mercati online la “testa” è molto meno importante: es. nei
DVD i primi 5.000 titoli sommano il 65-70% delle vendite
offline e il 40-50% delle vendite online
Reti, nodi, hub ... topologia
Eulero (1707-1789) pose le basi per l’attuale “teoria dei grafi”,
che permettono di schematizzare situazioni o processi al fine
di analizzarli in termini algoritmici. Successivamente due
matematici ungheresi degli anni Venti, Erdós e Rényi,
studiarono a fondo i grafi e ne dedussero che i fenomeni
complessi fossero di natura casuale, senza leggi.
Numero di Erdós
http://it.wikipedia.org/wiki/Paul_Erd%C5%91s#Il_numero_di_Erd.C5.91s
Reti, nodi, hub ... topologia
In sociologia (Milgram) studiò i “gradi di separazione”, la
distanza che esiste tra due punti di una rete in base ai loro
legami indiretti: tra due distanti sconosciuti, tra due pagine
web in Internet o tra due molecole di una cellula.
http://it.wikipedia.org/wiki/Sei_gradi_di_separazione_%28sociologia%29
Esperimento di Milgram nel 1967 per capire la “distanza” tra
cittadini USA; selezionati cittadini di Wichita e Omaha (v.)
dovevano mandare una lettera a due cittadini di Boston
affidandola a persone “conosciute” ... in media 5,5 passaggi
(anche se molte andarono disperse).
Barabasi: “quanto è grande il Web? e quanti gradi di
separazione?”. Un esperimento nel 1998 stima il “diametro”
del Web a circa 19.
Reti, nodi, hub ... topologia
Una tesi interessante e paradossale fu fornita con la tesi dei
“legami deboli” del sociologo Granovetter, secondo cui un
soggetto ha maggiori probabilità di successo all’aumentare del
numero delle persone con cui intrattiene rapporti superficiali
(small worlds).
http://en.wikipedia.org/wiki/Small_world_phenomenon
Gli “small worlds” sono caratterizzati dagli hub o «connettori»,
(Gladwell). I connettori vengono descritti come «un pugno di
persone che possiede l’abilità davvero straordinaria di
stringere un numero eccezionale di amicizie e di conoscenze».
Gli hub esistono in qualsiasi campo; ad esempio in Internet
fungono da hub i motori di ricerca più visibili, nelle molecole
delle cellule un hub è l’ATP.
Reti, nodi, hub ... topologia
Trovare esempio di reti “small world” nelle varie scienze:
chimica, sociologia, informatica
Reti, nodi, hub ... topologia
Contrariamente all’ipotesi del caos e dell’assenza di leggi nelle
reti, da qui alla formulazione matematica di una legge il passo
è breve: si deve infatti ad un’idea ispirata dal sociologo italiano
Pareto la legge di potenza «a invarianza di scala», secondo la
quale «pochi grandi eventi determinano la maggior parte delle
azioni».
http://it.wikipedia.org/wiki/Rete_a_invarianza_di_scala
Reti peer-to-peer (p2p)
“Le reti peer-to-peer non sono proprietà di alcuna autorità
centrale, e non possono essere controllate, spente o
ridimensionate da qualsivoglia autorità.
Sono infrastrutture magiche, reti le cui mappe formano
strane topologie a infinite dimensioni di bellezza e caos
insuperabili, stravaganti ammassi tecnologici di fili
controllati da ad-hocrazie i cui membri operano ognuno nel
proprio interesse.
In
poche
parole
la
tecnologia
peer-to-peer
è
maledettamente perversa. E' esoterica. Non si può bloccare.
E' divertente, molto divertente.”
Cory Doctorow
http://en.wikipedia.org/wiki/Cory_Doctorow
http://boingboing.net/
Polemica Eco
U.Eco “Lo studente stava dicendo che oggi esiste Internet,
la Gran Madre di tutte le Enciclopedie, dove si trovano la
Siria, la fusione fredda, la guerra dei trent'anni e la
discussione infinita sul più alto dei numeri dispari. Stava
dicendo che le informazioni che Internet gli mette a
disposizione sono immensamente più ampie e spesso più
approfondite di quelle di cui dispone il professore. E
trascurava un punto importante: che Internet gli dice 'quasi
tutto', salvo come cercare, filtrare, selezionare, accettare o
rifiutare quelle informazioni.
A immagazzinare nuove informazioni, purché si abbia buona
memoria, sono capaci tutti. Ma decidere quali vadano
ricordate e quali no è arte sottile. Questo fa la differenza tra
chi ha fatto un corso di studi regolari (anche male) e un
autodidatta (anche se geniale).”
Polemica Eco
Recentemente in Rete è nata una nuova polemica con Eco,
nata da un'intervista i cui ribadisce l'importanza dei filtri
nella cultura.
Molti argomentano che la Rete2.0 sta appunto sviluppando
proprio tecniche per filtrare maggiormente il mare-magnum
della rete (tag, motori di ricerca + potenti, social
bookmarking)
http://semioweb.msh-paris.fr/AAR/FR/video.asp?id=1030&ress=3280&v
http://www.rodoni.ch/busoni/umbertoeco/umbertoeco.html
http://natinonfummo.blogspot.com/2006/01/umberto-eco-e-internet.htm
http://punto-informatico.it/p.aspx?id=1700152&r=PI
La visione di Bruce Sterling
Bruce Sterling creò anni fa il Dead Media Project (
www.deadmedia.org) in cui spiega che “i media uno-a-molti,
centralizzati, che hanno calpestato il ventesimo secolo
come animali preistorici, si adattano poco all'ambiente
tecnologico post-moderno”
Gli strumenti (i media) non muoiono, muoiono gli strumenti
di accesso (i delivery, le tecnologie): la parola stampata non
ha soppiantato quella orale, il cinema non ha ucciso il
teatro, la tv non ha ucciso la radio. Vecchi e nuovi media
sono stati costretti a coesistere.
La “fallacia della scatola nera” (“tutti i contenuti passeranno
per un'unica scatola nera nei nostri soggiorni) ... nelle
nostre case le scatole nere continuano ad aumentare!
Invece la musica oggi la ascoltiamo dal lettore DVD,
dall'autoradio, dal walkman, dal cellulare, dalla radio via
Web, dal PC, dall'iPod ... (Jenkins)
La visione di Bruce Sterling
http://nova.ilsole24ore.com/nova24ora/2007/11/la-visione-di-b.html
Vorrei parlarvi anche della mia visione sul Web 2.0, che si
può descrivere come una rete di idee connesse tra loro:
linee e cerchi che si intersecano e si connettono l’uno con
l’altro. Sono molte le cose che distinguono il Web 2.0 dal
Web 1.0. Anzitutto, gli effetti del network. Il Web 2.0 nasce
direttamente dal web – si sviluppa in esso stesso – mentre il
Web 1.0 era stato trasferito dalla carta al Web. Non solo: il
Web 2.0 non è destinato a espandersi su una sola rete, ma
è costruito per venir diffuso ovunque, attraverso qualsiasi
mezzo.
Io, per esempio, sono sempre in cerca di qualcosa che
funzioni meglio, rispetto a quel che gia esiste. La ricerca
giornaliera di ognuno di noi porta a scoprire il futuro. Infatti,
il futuro è dove tu lo trovi.
L'intelligenza collettiva di P. Lévy
“I fabbricanti di oggetti diventano sempre più rari e il loro
lavoro, esteso e meccanizzato, è sempre più soggetto
all'automazione.
I
lavori
legati
al
trattamento
dell'informazione stanno scomparendo, perché le reti di
comunicazione autointelligenti assolveranno ben presto da
sole la maggior parte delle loro funzioni. L'ultima frontiera
risulterà l'essere umano, ciò che non è automatizzabile:
l'apertura di mondi sensibili, l'invenzione, la relazione, la
creazione continua del collettivo.
La produzione antropica del futuro si basa su due elementi
indissolubili:la cultura delle qualità umane – di cui fanno
parte le competenze – e l'edificazione di una società
vivibile. Tutto si svolge come se l'umano, in tutta la sua
estensione e varietà. fosse diventata la nuova materia
prima. Noi qui lottiamo affinché l'intelligenza collettiva
diventi l prodotto finito per eccellenza. L'intelligenza
collettiva: fonte e fine di tutte le ricchezze, aperta e
incompiuta, output paradossale perché interiore, qualitativo
e soggettivo. L'intelligenza collettiva: prodotto infinito della
nuova economia dell'umano”
Scarica