I lezione_episemologia_2016_corte.pptx

annuncio pubblicitario
10/12/16
Informazioni
Epistemologia dei
nuovi media
Corso di scienze della comunicazione
a.a. 2016-2017
Teresa Numerico
[email protected]
Informazioni II
•  Libri di testo per sostenere
l’esame se non si vuole fare
l’esame come frequentante
–  Mayer-Schönberger V., Cukier N.,
Big Data, Garzanti, Milano, 2013.
–  Lovink G. L’abisso dei social
media, Egea, Milano, 2016.
–  Numerico T. (et al.), L’umanista
digitale, Il Mulino, Bologna,
2011, cap. I e cap. IV
•  Docente teresa numerico
[email protected]
•  6 crediti
•  36 ore (inclusa la valutazione
sperimentale per frequentanti)
•  Orario lezioni: lun. H.
13.00-16.00 I sem. Aula 2
•  Valutazione sperimentale per i/le
frequentanti che lo desiderano
•  Il corso sostituisce quello di
comunicazione di rete
Di cosa si parlerà nel
corso?
•  Questioni epistemologiche, politiche,
sociali e etiche relative all’uso dei
media digitali nella vita quotidiana
e nella costruzione della conoscenza
–  Big Data, data mining, machine learning
e deep learning
–  Costruzione della conoscenza e
organizzazione dell’educazione nel
contesto digitale
–  Sorveglianza, controllo e libertà
–  Teoria, dati e interpretazione: il
ruolo dell’algoritmo
–  Accesso e organizzazione delle
informazioni
–  Privacy e right to be forgotten
1
10/12/16
La presenza online degli
adolescenti (13-17 anni)
•  Il 24% degli adolescenti va online
costantemente
•  Il 92% va online ogni giorno
•  Il 56% dei ragazzi tra i 13 e I 17
anni vanno online più volte al giorno
•  Il 12% una volta al giorno
•  Solo il 6% più sporadicamente
•  La grande diffusione della presenza
online riguarda la disponibilità e la
convenienza di telefoni smart
• 
Adolescenti e relazioni
amorose: tecnologia come
controllo?
Durante o dopo una relazione il 31% (26%
durante) sperimenta il controllo online del
partner
•  Intorno al 10% degli adolescenti che hanno
avuto una relazione hanno avuto accesso a un
account del partner, hanno danneggiato il
profilo del/della ex online
•  Il 21% riporta che un ex o un partner attuale
ha letto i loro messaggi senza permesso
Teens, Technology and Romantic Relationships Pew research
center, 1 oct. 2015 http://www.pewinternet.org/2015/10/01/
teens-technology-and-romantic-relationships/
Fonte Pew Research Center (april 2015) Teens, Social Media
& Technology Overview 2015
http://www.pewinternet.org/2015/04/09/teens-social-mediatechnology-2015/
Controllo sul lavoro
•  I datori di lavoro bloccano
l’accesso a alcuni siti e hanno
regole su cosa si può scrivere e
postare online nel 46% dei casi
negli US
•  Questo dato è più che duplicato
dal 2006
Fonte Pew Research center internet, science and tech, dec.
2014 http://www.pewinternet.org/2014/12/30/technologys-impacton-workers/
Need to be observed
•  The public sphere is saturated with the exposure of
private life
•  It is virtually impossible to distinguish the
rationalization and commodification of selfhood from
the capacity of the self to shape and help itself and to
engage in deliberation and communication
•  The prevalence and persistence of this narrative,[…] a
narrative of recognition
•  It becomes harder to distinguish between our
professional and private self. In the competitive
networking context of work
Illouz 2007 cited in Lovink 2011, 42
2
10/12/16
Desire to be observed
•  The erosion of anonymity is a product
of pervasive social media services
[…] and perhaps most important of
all, a change in people’s views about
what ought to be public and what
ought to be private
•  All those technical gadget are […]
user-friendly though […] it means a
product that is incomplete without
the user’s labour, along the line of
IKEA furniture. And […] without
user’s enthusiastic devotion and
deafening applause
From the old panopticon to
the dream of being noticed
•  The old panoptical stratagem is being
gradually yet consistently […]
brought to well-nigh universal
implementation.
•  With the old panoptical nightmare (I
am never of my own) now recast into
the hope of ‘never again being
alone” (abandoned, ignored and
neglected, […]),the fear of
disclosure has been stifled by the
joy of being noticed
Baumann, Lyon 2013, p. 23
Bauman, Lyon 2013, p.22
Privacy and information
sharing
•  Secondo uno studio di Pew Research
Center la maggior parte degli americani
sono disponibili a condividere
informazioni personali in cambio di
qualcosa che percepiscono come un valore
•  Secondo gli americani intervistati la
possibilità di condividere dati
personali dipende dallo scenario e dalla
percezione di un ritorno che
percepiscono di valore
http://www.pewinternet.org/2016/01/14/privacy-andinformation-sharing/
Gli scenari individuati
•  Camere di soveglianza in ufficio
–  Accettabile 54%, dipende 21%, inaccettabile 24%
•  Condividere informazioni sulla salute
–  Accettabile 52%, dipende 20%, inaccettabile 26%
•  Carte di fedelta nei negozi
–  Accettabile 47%, dipende 20%, inaccettabile 32%
•  Assicurazione auto
–  Accettabile 37%, dipende 16%, inaccettabile 45%
•  Free social media per una riunione di
compagni
–  Accettabile 33%, dipende 15%, inaccettabile 51%
•  Termostato smart che monitora spostamenti
–  Accettabile 27%, dipende 17%, inaccettabile 55%
3
10/12/16
Can we store
information?
•  It is false to think that
information can be stored
without an overwhelming
depreciation of its value in a
changing world because:
DATA MANAGEMENT IN THE
HISTORY OF COMMUNICATION
TECHNOLOGIES
Wiener 1950: 121
Traditional knowledge production
in science (Licklider)
Data management and the
body of knowledge
•  The laboratory and the library
are physically separate and
distinct. The only channels for
interaction between them are
the telephone, the experimenter
himself, and the books he
borrows from the library and
examines in the laboratory
•  The data are collected, not only
in isolation from these
concurrent processes, but also in
isolation from one another, and
the result is a chaos of
miscellaneous individual cases.
•  The difficulties of integrating
the results of many simultaneous
projects […] is at present object
of much concern
Licklider 1965,p. 22
Licklider 1965, p. 24
4
10/12/16
Organizing information
into knowledge
•  The raw materials or inputs to the
“organizer” are alphanumeric data,
geometrical patterns, pictures, […]
•  The outputs of the organized system are
expressed in one or more of the input
forms, but they are not mere
reproductions or translations of
particular inputs;
•  They are suggestions, answers to
questions and made-to-order summaries of
the kind that a good human assistant
might prepare if he had a larger and
more accurate memory and could process
information faster
Licklider’s proposal
•  In organizing knowledge, just as in
acquiring knowledge, it would seem
desirable to bring to bear upon the
task the whole corpus, all at one
time […]. This aim seems to call for
direct interactions among various
parts of the body of knowledge, and
thus to support the requirement […]
for an active or directly
processible store
Licklider 1965, p. 25
Licklider 1965, p. 25
Bob Taylor and Vietnam
reports
•  There were discrepancies in reporting that was
coming back from Vietnam to the White House about
enemy killed, […] logistics reports of various
kinds
•  […] I talked to various people who were submitting
these reports back to Washington. I got a sense of
how the data was collected, how it was analyzed,
and what was done with it before it was sent back
to the White House, and I realized that there was
no uniform data collection or reporting structure
•  So they built a computer center at Tonsinook and
had all of this data come in through there. After
that the White House got a single report rather
than several. That pleased them; whether the data
was any more correct or not, I don't know, but at
least it was more consistent
Dati, algoritmi e giustizia sociale
LA POLITICA DEL SOFTWARE
Taylor 1989, pp. 12-13
5
10/12/16
Big Data
Cosa sta succedendo?
•  Big data e riorganizzazione di
epistemologia, mercato, società
•  Segnalo questo piccolo
documentario di Evgeny Morozov
pubblicato da Al Jazeera, dal
titolo rebel geeks – give us
back our data
https://www.youtube.com/watch?
v=jAL1lVvJxew
•  La digitalizzazione consente con
grande facilità la cosiddetta
datificazione, che non è
esclusivamente il frutto del
digitale, ma il digitale offre un
acceleratore a questo processo
•  La costruzione dei dati non riguarda
solo fenomeni scientifici riguarda la
nostra stessa vita
•  Siamo noi che accettando di usare i
telefoni cellulari e le loro smart
app datifichiamo la nostra vita
La decadenza del web e le
sue conseguenze
Dati grezzi e verità
•  The Web Is Dead. Long Live the
Internet By Chris Anderson and
Michael Wolff, Wired, sept.
2010 http://www.wired.com/
magazine/2010/08/ff_webrip/all/
1
•  This shared sense of starting
with data often leads to an
unnoticed assumption that data
are transparent, that
information is self-evident,
the fundamental stuff of truth
itself
Lisa Gitelman and Virginia Jackson 2013 raw data is
an oxymoron, p. 2
6
10/12/16
La purezza dei dati
•  Come se questi dati discendessero
direttamente dai fatti e avessero un
rapporto diretto, incontaminato con
la ‘realtà’
•  La politica dei big data segnala e
suggerisce che non c’è niente da
decidere e che tutto discende
direttamente dal funzionamento dei
meccanismi di costruzione delle
correlazioni (algoritmi) di cui pochi
conoscono la logica e nessuno sa
perché le correlazioni trovate
dovrebbero avere senso
Big Data(secondo Wikipedia
may 2016)
• 
• 
• 
• 
Big data is a term for data sets that are so large or
complex that traditional data processing applications
are inadequate. Challenges include analysis, capture,
data curation, search, sharing, storage, transfer,
visualization, querying, updating and information
privacy.
The term often refers simply to the use of predictive
analytics or certain other advanced methods to extract
value from data, and seldom to a particular size of data
set.
Accuracy in big data may lead to more confident decision
making, and better decisions can result in greater
operational efficiency, cost reduction and reduced risk.
Analysis of data sets can find new correlations to "spot
business trends, prevent diseases, combat crime and so
on.”
Scientists, business executives, practitioners of
medicine, advertising and governments alike regularly
meet difficulties with large data sets in areas
including Internet search, finance and business
informatics.
Quantified self e
selftracking
•  Activity monitor (Apple Watch, Fitbit tracker
Jawbone)
•  Sleep specific monitors (Pillow - Smart Sleep
Cycle Alarm Clock Drowzy, Lark, SleepBot,
Sleep as Android)
•  Reproductive health (Clue, Glow, kindara)
•  Diet and weight (Fitbit aria scale, my
fitnessPal, smalt)
•  Mood (lume personal tracker, moodTracker,
•  Altro (23andMe, WorkMeter ecc.)
SECONDO EVGENY MOROZOV QUESTI DISPOSITIVI SONO
UN MODO DI INTROIETTARE LA SILICON VALLEY NELLE
NOSTRE ABITUDINI
Big Data e retorica
•  Volume The quantity of generated and stored data.
The size of the data determines the value and
potential insight- and whether it can actually be
considered big data or not.
•  Variety The type and nature of the data. This
helps people who analyze it to effectively use the
resulting insight.
•  Velocity In this context, the speed at which the
data is generated and processed to meet the
demands and challenges that lie in the path of
growth and development.
•  Variability Inconsistency of the data set can
hamper processes to handle and manage it.
•  Veracity The quality of captured data can vary
greatly, affecting accurate analysis.
Ancora wikipedia big data entry
7
10/12/16
È possibile controllare l’interpretazione degli
algoritmi?
LA SFIDA DELL’EQUITÀ
NELL’ANALISI DEI BIG DATA
Jenny Holzer, projections
La costruzione delle
abitudini
•  Le abitudini non sono virus che si
propagano
•  Per quanto difficile sia cambiare
abitudini, le abitudini sono acquisite
non ‘incorporate’ come gli atti
involontari, come respirare
•  È scorretto pensare le abitudini come
dipendenze
•  Gli studi sull’omofilia delle abitudini
non sono fatti per sostenere la
giustizia nell’analisi sociale
Conoscenza e segreto
•  Conoscenza è potere. Controllare gli altri
mentre si evita di essere oggetto di
controllo è la più importante forma di potere
•  Le aziende cercano i nostri più intimi
dettagli di vita come potenziali clienti e
dipendenti, ma danno ai regolatori il minimo
possibile di informazioni circa le loro
statistiche e procedure. Le aziende internet
raccolgono sempre più dati sui loro utenti ma
lottano contro i regolatori che vorrebbero
che gli utenti esercitassero un qualche
controllo sui risultanti dossier digitali.
(Pasquale 2015 pp.3-4)
Chun 2016, pp. 8-15
8
10/12/16
Di chi sono questi dati?
trovare o perdere lavoro:
a quali condizioni?
•  Secondo Rodotà (2014) seguendo l’idea
di Habeas Data i dati sono nostri.
•  Nessuno dovrebbe poter vendere e
comprare le nostre email per giunta
avendo attaccato a ciascuna di esse
una categorizzazione da marketing del
tipo “cliente non affidabile”,
“elevate spese mediche”, “Guida
pericolosa”, “reddito in
declino” (Cardon 2016, 73)
•  I questionari attitudinali
•  La valutazione dei docenti della
scuola in certi stati americani: la
misurabilità di certi comportamenti
•  Clopening: ovvero turni secondo gli
algoritmi
•  Come è possibile quantificare e
misurare ogni elemento umano, senza
stravolgerne le caratteristiche?
O’Neil (2016, capp. 6-7)
La categorizzazione e i
suoi demoni
•  La categorizzazione è un sistema di potere per
governare la realtà presuntamente costituita di fatti
oggettivi (Bowker, Leigh Star 2000)
•  Si stabilisce cosa è sano e cosa è malato, chi ha più
merito e chi ne ha meno per trovare lavoro, o come
valutare la prestazione, quanto vale un premio di
assicurazione, chi ha diritto al prestito bancario
Società del controllo, gig
economy e dividui
• 
• 
• 
• 
Big data e algoritmi di machine learning aggiungono a tutte
queste variabili aleatorie dei precisi vincoli sulla
datificazione e sulla misurabilità di ogni aspetto da valutare
secondo i propri criteri. Quello che non è rappresentabile in
forma quantitativa non è analizzabile dalle tecniche di big
data, perché esse sono intessute dei programmi di computer
che devono analizzare i dati (gli algoritmi di machine
learning) Non si dà algoritmo senza base dati organizzata per
lui
• 
Nella società del controllo quello che è importante non
è più una firma o un numero, ma un codice: il codice è
una password.
Il linguaggio numerico del controllo è fatto di codice
che marca o rigetta l’accesso all’informazione
Non abbiamo più a che fare con la coppia massa/
individuo. Gli individui sono diventati “dividui” e le
masse dati campione, mercati o banche
Forse è il denaro che esprime meglio la distinzione tra
le due società: nel caso del controllo si riferisce a
tassi fluttuanti di cambio che si modulano secondo un
insieme di monete standard
(Deleuze 1990)
I dividui non sono più dipendenti, ma restano vincolati
all’algoritmo che ne determina i movimenti e ne
definisce la vita in un sistema di cui nessuno è
pienamente in controllo (Deliveroo, Foodora Uber, e le
altre app. che ritengono di non avere rapporti di lavoro
dipendente)
9
10/12/16
Di chi è la responsabilità
degli algoritmi?
Il potere dell’algoritmo
L’essere umano ha bisogno di […] seguirle [le
macchine], di proteggerle, e di mettere a punto gli
algoritmi come nostri aiutanti digitali, poiché gli
algoritmi, nonostante l’apparenza, non sanno aiutare se
stessi, ma seguono semplicemente una regola
meccanica (Bunz 2014, 112)
•  È basato sull’uso di probabilità per
anticipare le azioni degli individui o
le loro preferenze a livello di
profilazione che non è in controllo del
singolo, ma che è gestito anche in
riferimento al singolo
•  Fronteggiamo una normatività che pur
sembrando democratica in realtà crea con
le sue cieche categorizzazioni un forte
impatto sulla rappresentazione della
realtà a proposito di schemi che
rigurdano la politica, la società il
genere, l’origine etnica ecc.
Ripristinando esattamente gli stereotipi
e le istanze di esclusione eliminate da
anni di lotte politiche
Che cos’è l’algoritmo
Computer come algoritmi
•  Chi si chiede come programmare gli algoritmi per
garantire equità, conciliazione vita lavoro, non
discriminazione di minoranze o delle differenze
(fragilità emotiva dei lavoratori)?
•  Chi invece si chiede solo come massimizzare i
profitti?
•  Dietro le macchine e i sistemi informativi ci sono
progetti industriali e obiettivi precisi
•  Gli algoritmi non sono necessariamente
software
•  Sono procedure codificate per trasformare
certi input in entrata in output di uscita,
basandosi su specifici calcoli
•  Gli algoritmi vengono molto prima dei
computer, un esempio informale è l’algoritmo
per il massimo comun divisore che si trova
negli elementi di Euclide (circa 323–283
a.c.)
•  Il termine algoritmo prende il nome dal
matematico, geografo persiano Al-khwārizmī
(780-850 d.c.)
•  I computer sanno effettuare
esclusivamente calcoli che sono
eseguiti come procedure codificate di
regole da applicare ai dati in input
per produrre degli output
•  Possiamo pensare quindi ai programmi
di computer come a degli algoritmi
•  Tuttavia un algoritmo può anche
essere eseguito a mano (e prima dei
computer spesso lo era)
10
10/12/16
Donne calcolatrici sulle
tavole da tiro durante la
II guerra mondiale
Qual è il problema?
•  Il problema è che gli algoritmi sono sempre più
centrali nella presa di decisione in moltissime
questioni anche vitali per le persone, come
ottenere un lavoro, avere un mutuo, quantificare
il premio dell’assicurazione, accedere
all’università(per adesso in US) ma noi non
abbiamo nessun dettaglio su come agiscano e quale
logica seguano nella maggior parte dei casi
•  È importante comprendere in che modo
l’introduzione degli algoritmi nelle pratiche
della conoscenza può avere delle conseguenze
politiche, come ingiustizie, mancanza di
equanimità nella presa di decisioni che riguardano
l’essere cittadini
Vedi Gillespie 2014
• 
• 
• 
• 
• 
• 
rilevanza politica degli
algoritmi (Gillespie 2014,
168)
Modelli di inclusione: cosa c’è dietro la
costruzione di un indice, cosa è escluso come i
dati sono preparati per l’algoritmo
Cicli di anticipazione: le implicazioni dei
tentativi dei fornitori di algoritmi per
comprendere e predire le abitudini degli utenti e
come possono incidere
La valutazione della rilevanza: in che modo gli
algoritmi determinano cosa è rilevante, la loro
oscurità e come agiscono sulle scelte politiche
La promessa di obiettività algoritmica: e come
reagisce di fronte alle controversie
L’influenza sulle pratiche: cioè come gli utenti
riorganizzano le proprie pratiche per essere
efficaci per gli algoritmi da cui dipendono
La produzione di pubblici calcolati: come la
presentazione algoritmica del pubblico ha effetto
sulla autopercezione del pubblico e chi è nella
posizione di trarne beneficio
algoritmi e società
•  Gli algoritmi stanno emergendo come
strumenti di conoscenza pubblica. É
importante contrastare la deriva
deterministica che vede nella
tecnologia la sola forza in movimento
in questo contesto
•  Sarebbe utile invece studiare come
questi strumenti sono posti in essere
e messi in azione negoziando con uno
sforzo collettivo di conoscere e
essere conosciuti
Gillespie 2014, 169
11
10/12/16
Dati e algoritmi
•  Gli algoritmi intanto sono messi in
relazione con una certa base dati. Prima
che il risultato sia fornito i dati
devono essere raccolti, organizzati per
l’algoritmo
•  Se i dati sono formalizzati,
normalizzati, “puliti” questo contrasta
con l’idea che gli algoritmi siano degli
automatismi
•  Dobbiamo guardare a come l’informazione
deve essere orientata per fronteggiarli,
come è resa pronta per l’algoritmo
Gillespie 2014, 170-171
I metodi
•  Machine learning, deep learning,
algoritmizzazione della
conoscenza
•  La prestanza delle macchine su
cui girano
•  La segretezza degli strumenti e
delle pratiche
•  Il potere degli algoritmisti che
sono in controllo dei metodi
L’invisibilità
•  The archive's jussive force,
then, operates through being
invisibly exclusionary.
•  The invisibility is an important
feature here: the archive
presents itself as being the set
of all possible statements,
rather than the law of what can
be said
Bowker 2008, 14
Wiener e i sindacati
•  I have been interested for a long
time in the problem of automatic
machinery and its social consequences
•  I do not wish to contribute in any
way to selling labor down the river,
and I am quite aware that any labor,
which is in competition with slave
labor, whether the slaves are human
or mechanical, must accept the
conditions of work of slave labor
Wiener a Walter Reuther (Union of automobile workers)
1949
12
10/12/16
Governamentalità
algoritmica
•  Raccolta di una grande quantità
di dati e costituzione di
datawarehouse
•  Trattamento di dati e
produzione di conoscenza
•  Azioni sui comportamenti
A. Rouvroy T. Berns 2013 “Governamentalité algorithmique
et perspectives d’émancipation: le disparate comme
condition d’individuation par la relation?”, Reseaux,
2013/1 (N. 177)
Livello delle informazioni
•  A che livello funzionano queste
informazioni anche individuali
raccolte nei big data?
•  Non a livello individuale ma a
livello di massa, eppure questi
strumenti consentono un sistema
di profilazione dettagliato
anche per gli individui
Possiamo farcela senza
modelli
By Chris Anderson
6/23/2008
http://www.wired.com/print/science/
discoveries/magazine/16-07/pb_theory
THE END OF THEORY: THE DATA
DELUGE MAKES THE SCIENTIFIC
METHOD OBSOLETE
Peter Norvig, Google's
research director,
offered an update to
George Box's maxim: "All
models are wrong, and
increasingly you can
succeed without them."
13
10/12/16
Dimenticare tassonomia,
ontologia e psicologia
Out with every theory of human
behavior, from linguistics to
sociology. Forget taxonomy,
ontology, and psychology. Who
knows why people do what they do?
The point is they do it, and we
can track and measure it with
unprecedented fidelity. With
enough data, the numbers speak for
themselves.
Ci basta la correlazione
tra dati
Correlation is enough." We can
stop looking for models. We can
analyze the data without
hypotheses about what it might
show. We can throw the numbers
into the biggest computing
clusters the world has ever seen
and let statistical algorithms
find patterns where science
cannot.
Vecchi metodi scientifici
But faced with massive data,
this approach to science —
hypothesize, model, test —
is becoming obsolete.
La misura dei big data
•  Processor or Virtual Storage
· 1 Bit = Binary Digit
· 8 Bits = 1 Byte
· 1024 Bytes = 1 Kilobyte
· 1024 Kilobytes = 1 Megabyte
· 1024 Megabytes = 1 Gigabyte
· 1024 Gigabytes = 1 Terabyte
· 1024 Terabytes = 1 Petabyte
· 1024 Petabytes = 1 Exabyte
· 1024 Exabytes = 1 Zettabyte
· 1024 Zettabytes = 1 Yottabyte
· 1024 Yottabytes = 1 Brontobyte
· 1024 Brontobytes = 1 Geopbyte
•  ·
14
10/12/16
DATI PRODOTTI OGNI
GIORNO NELLA RETE
DALLE VARIE
APPLICAZIONI,
SOCIAL NETWORK,
APP VARIE,
NETFLIX, YOUTUBE
ECC
https://
www.domo.com/blog/
2015/08/datanever-sleeps-3-0/
J. JAMES
ESTATE 2015
LA CRESCITA DEI
DATI DISPONIBILI
IN RETE OGNI
GIORNO SECONDO LA
RETORICA DEI BIG
DATA
http://
www.vcloudnews.com
/wp-content/
uploads/2015/04/
big-datainfographic1.png
Accanto al web
Cardon D.(2016)Cosa sognano gli algoritmi,
Mondadori, Milano
QUATTRO FAMIGLIE DI
CALCOLO DIGITALE
•  Accanto al web: misurazione
dell’audience visitatore unico
user-centric (mediamétric/
netratings)e site-centric
(google Analytics)
•  per aumentare l’audience si usa
la tecnica del clickbait (la
colonna infame)
15
10/12/16
Al di sopra del web
• 
• 
• 
• 
• 
• 
• 
Autorevolezza basata sul merito
La citazione considerata come un segno di apprezzamento
nei confronti della pagina
Questi strumenti misurano la forza sociale di attrazione
che le pagine ottengono
I motori di ricerca filtrano le informazioni a
posteriori
Ma anche Digg, Wikipedia: una legittimazione da parte
della comunità
Ma perché il segnale funzioni non deve essere
contaminato dalle strategie degli internauti come invece
accade spesso nello spam sui motori di ricerca e gli
altri algoritmi che misurano l’autorevolezza
Critiche: effetti di esclusione e concentrazione
dell’autorità, effetto censitario della misurazione
All’interno del web
•  Il calcolo dei like: I sistemi metrici di
misurazione della reputazione
•  Nel mondo delle affinità digitali
l’apprezzamento si può fabbricare
•  Da poter dare un voto a tutto a tutti possono
dare un voto
•  Il rischio è imprigionare l’utente in una
bolla
•  È difficile mettere insieme le valutazioni
eterogenee
•  Gli algoritmi non sanno se valutare quello
che si dichiara di volere da quello che si fa
lasciando le proprie tracce
Al di sotto del web: Big
Data e tracce
Aziende broker di dati
•  Gli algoritmi di machine learning misurano al di
sotto del web le preferenze degli utenti in
termini delle tracce che lasciano compiendo azioni
sul web o che possono essere misurate attraverso
la rete (quantified self ecc.)
•  Non si interessano più alle categorie
sociodemografiche e trattano anonimamente i dati
(per esempio tecnica del retargeting)
•  Si tratta di comportamenti individuali impliciti
che vengono analizzati attraverso algoritmi
•  Il problema dei third parties cookies è che quando
si da’ il consenso all’utilizzo ai propri dati di
un sito non si immagina che questo significa che I
comportamenti online vengono monitorati anche
quando si naviga in altre pagine
•  Acxiom http://www.acxiom.com/
•  Exelate/Nielsen http://exelate.com/
•  TowerData formerly RapLeaf
http://intelligence.towerdata.com/ e
il suo listino prezzi per le email
http://intelligence.towerdata.com/
pricing-append
•  BlueKai comprata da Oracle nel 2014
http://www.oracle.com/us/corporate/
acquisitions/bluekai/index.html
Cardon (2016: 25-30)
16
10/12/16
Facebook e i suoi
esperimenti
•  Cameron Marlow capo del Data
Science Team: “for the first
time we have a microscope that
not only lets us examine social
behavior at a very fine level
that we’ve never been able to
see before but allows us to run
experiments that millions of
users are exposed to”
Lo scopo del data science
team
•  To support the well-being of the
people who provide Facebook with
their data, using it to make the
service smarter
•  Marlow and his collegues will
advance humanity’s understanding
of itself
•  Zuckerberg pensa che “Facebook’s
job is to improve how the world
communicates”
Quantificare l’audience
invisibile
Software come relazione di
poteri
•  Dati di Facebook usati per
sostenere che le informazioni
postate ricevono molta più
attenzione di quanta possano
immaginare gli autori che le
condividono
•  Emotional contagion experiment
•  Filter bubble experiment
•  Il passaggio dal software come servizio al
software come cosa
•  Il conseguente passaggio dell’informazione
inerente a una persona all’informazione come
conoscenza comunicata relativa a un fatto, un
evento ecc., la possibilità di brevettare il
codice genetico per es. (CHUN 2011, p. 6)
•  L’esternalizzazione dell’informazione
riguarda il processo della governamentalità:
cioè delle relazioni private interpersonali
che implicano una qualche forma di controllo
o di guida, e infine le relazioni che hanno a
che fare con l’esercizio della sovranità
•  Il termine cibernetica evoca il governo della
nave
17
10/12/16
Computer come sogno della
della programmabilità
•  I computer come macchine governamentali non
a livello di contenuto o di progetti
governamentali, ma come macchine che
rappresentano la governamentalità a livello
di architettura e della loro strumentalità
•  Le loro interfacce ci offrono una forma di
mappatura, di immagazzinamento dati centrale
per la nostra soggettività sovrana
•  Si tratta di ripristinare l’universo
deterministico laplaciano
Chun 2011, p.9
IL PROBLEMA DEI FALSI
POSITIVI
•  L’obiettivo dei big data non è solo il
presente ma piuttosto il futuro e la
capacità di prevederlo
•  Nella prevenzione di frode e crimine o
terrorismo per esempio non sarà ottenere
falsi positivi, quanto essere in grado
di cogliere tutti i veri positivi.
•  Non ci saranno mai delle mancanze perché
la logica del sistema è quella del
depistaggio piuttosto che di una vera
diagnostica
(Rouvroy, berns 2013, 7)
L’eterno presente del database
universale: Big Data
•  La capacità di prevedere le azioni umane
a partire dalla mappa dei comportamenti
pregressi non funziona mai come previsto
•  L’utente non segue mai fino in fondo la
mappa prevista, ma cerca di abitarla e
come tale ricostruisce sempre una nuova
possibilità di mappa
•  I database non sono mai infallibili come
sembrano
•  Questi database che orientano la
capacità di mappare dei computer sulla
base delle attività di machine
intelligence diventano ‘sporchi’,
inaffidabili, quando non cancellano
attivamente le informazioni: vengono
sommersi dall’informazione vecchia e
erronea che fa diluire la mappa che ne
consegue (Chun 2011, 93-94).
Rhetoric of BD/1: Computer are
better problem solver than humans
•  It’s human nature to focus on the
problems […] where human skills and
ingenuity are most valuable. And it’s
normal human prejudice to undervalue
the problems [of] the domain where
data-driven intelligence really
shines.
•  But […] what problems can computers
solve that we can’t? And how, when we
put that ability together with human
intelligence, can we combine the two
to do more than either is capable of
alone?
Nielsen, 2011, p. 213
18
10/12/16
Rhetoric of BD/2:
data-driven science
•  Science is no more oriented by
interpretation, models and theory
•  Science is “data-driven” which - in the
BD jargon - means that there is no
interpretation and no theory prior to
data, because they are just making sense
by themselves (Mayer-Schönberger Cukier
2013)
•  But this is just rhetoric because in
order to find out the correlation among
data series you need to seek for them
choosing the right machine learning
algorithms, or you risk that the
correlations are just random,
particularly with high dimensionality
Capitalismo della
sorveglianza
•  È basato sulla sorveglianza
sostanzialmente unilaterale e sulle
modifiche del comportamento umano
•  Si occupa di monetizzare i dati non solo
vendendo le cose desiderate ma
soprattutto modificando comportamenti o
preferenze delle persone relativamente a
obiettivi che riguardano tutti I campi
dalla politica, al commercio, dalla
legalità àlla salute ecc
S. Zuboff 5/3/2016
http://www.faz.net/aktuell/feuilleton/debatten/thedigital-debate/shoshana-zuboff-secrets-of-surveillancecapitalism-14103616.html
Bibliographic sources/1
• 
• 
• 
• 
• 
• 
• 
• 
• 
Berendt B.,Buchler M., Rockwell G. (2015) “Is it research or is it spying?”
Pre-print of paper published in Künstliche Intelligenz 2015. (C) Springer,
URL of this pre-print:
http://people.cs.kuleuven.be/~bettina.berendt/Papers/
berendt_buechler_rockwell
dana boyd (1 july 2014), “What does the Facebook experiment teach us?”in the
message, URL:
https://medium.com/message/what-does-the-facebook-experiment-teach-usc858c08e287f
Drucker J. (2011)” Humanities Approaches to Graphical Display”, digital
humanities quartely, vol.5 (1) http://www.digitalhumanities.org/dhq/vol/
5/1/000091/000091.html
Hacking I (1983) Representing and Intervening, Cambridge University Press,
Cambridge
Hacking I (1992) “The self-vindication of the laboratory sci- ences” In:
Pickering A (ed.) Science as Practice and Culture, University of Chicago
Press, Chicago, pp. 29–64.
Halevy A., Norvig P., Pereira F., (2009) “The unreasonable effectiveness of
data”, IEEE Intelligent systems, March/April 2009, vol.24 n.9 pp.8-12,
http://static.googleusercontent.com/external_content/untrusted_dlcp/
research.google.com/en//pubs/archive/35179.pdf
Keller Fox E. (2010) The mirage of a space between nature and nurture, Duke
University Press, Durham & London.
Kitchin R. (2014a) “Big Data, new epistemologies and paradigm shifts”, in Big
data and society,April-June 2014, 1-12.
Kitchin, R. (2014). The Data Revolution. Big Data, Open Data, Data
Infrastructures & Their Consequences. London: Sage.
Bibliographic sources/2
• 
• 
• 
• 
• 
• 
• 
Kramer A.I. and al. (2014) “Experimental evidence of massive-scale
emotional contagion through social networks”, in PNAS, June 17,
2014, vol. 111, no. 24, 8788–8790,
www.pnas.org/cgi/doi/10.1073/pnas.1320040111
Lazer D., Kennedy R., King G., Vespignani A. (2014) “The parable of
Google Flu: traps in Big data analysis”, in Science, vol. 343, 14
march 2014, pp. 1203- 1205.
Leetaru, K. H. (5 September 2011). "Culturomics 2.0: Forecasting
Large-Scale Human Behavior Using Global News Media Tone In Time And
Space". First Monday 16 (9),URL:
http://firstmonday.org/ojs/index.php/fm/article/view/3663/3040#p7
Licklider J.C.R. (1965): Libraries of the future, The MIT Press,
Cambridge, MA.
Mayer-Schönberger V., Cukier K. (2013) Big Data. A revolution that
will transform how we live, work and think, Houghton Mifflin
Harcourt, Boston.
Michel, J.B., Liberman Aiden, E. (14 Jan. 2011). "Quantitative
Analysis of Culture Using Millions of Digitized Books". Science 331
(6014): 176–182.
Nielsen M. (2012) Reinventing discovery: the new era of networked
science, Princeton University Press, Princeton.
19
10/12/16
Bibliographic sources/3
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
Mayer-Schönberger, V. & Cukier, K. (2013). Big Data. A Revolution That Will
Transform How We Live, Schroeder R.(2014) “Big data and the brave new world
of social media research”, in Big data and society, July-Dec 2014, 1-11.
Porsdam H. (2013) “Digital Humanities: On Finding the Proper Balance between
Qualitative and Quantitative Ways of Doing Research in the Humanities”, in
Digital humanities quarterly 2013, Volume 7 Number 3http://
www.digitalhumanities.org/dhq/vol/7/3/000167/000167.html
Raghavan P. (2014) “It’s time to scale the science in the social sciences”,
in Big Data and society, Apr-June 2014, pp.1-4.
Rouvroy A. Berns T. (2013) Gouvernementalité algorithmique et perspectives
d'émancipation : le disparate comme condition d'individuation par la
relation? In Politique des algorithmes. Les métriques du web. RESEAUX, Vol.
31, n.177, pp. 163-196.
Stiegler B. (2015)La société automatique.1 L’avenir du travail, fayard,
Paris.
Schroeder R. (2014) “Big Data and the brave new world of social and media
research” in Big Data and society July-Dec 2014, 1-11, bds.sagepub.com.
Taylor Bob oral interview 1989
http://conservancy.umn.edu/bitstream/107666/1/oh154rt.pdf
Yarkoni T.(july 2014) In defense of in defense of facebook, in citation
needed, URL:
http://www.talyarkoni.org/blog/2014/07/01/in-defense-of-in-defense-offacebook/
Van Dijck J. (2014) “Datification, Dataism and dataveillance: big data
between scientific paradigm and ideology, in Surveillance and Society, 2014,
vol. 12(2), 197-208.
Wiener, N. (1950): The Human Use of Human Beings. Houghton Mifflin, Boston.
Altre fonti citate
• 
• 
• 
• 
• 
• 
• 
• 
• 
• 
Bowker G.C. Leigh Star S.(2000) Sorting things out, Mit Press,
Cambridge, MA.
Bunz M. (2014) “Algoritmi della conoscenza e trasformazione del
lavoro”, in Pasquinelli M. (2014) (a cura di), Gli algoritmi del
capitale, Ombre Corte, Padova.
Cardon D. (2016) Cosa sognano gli algoritmi, Mondadori, Milano.
Chun W. H.K. (2016) Updating to remain the same, MIT Press,
Cambridge, MA.
Deleuze G. (1990/2015) “Postscritto sulla società del controllo”,
Pourparler, Quodlibet, Macerata, pp.234-241.
O’Neal C. (2016) Weapons of math destruction, Allen Lane, Penguin
Books, St. Ives.
Pasquale F. (2015) The black box society, Harvard Univ. Press,
Cambridge, MA.
Pew and Internet Research center (2016) Privacy and information
sharing
http://www.pewinternet.org/2016/01/14/privacy-and-informationsharing/
Rodotà S. (2014) Il mondo nella rete, Laterza, Roma.
Wiener N. letter to Walter Reuther (Union of automobile workers) 13
August 1949
https://libcom.org/history/father-cybernetics-norbert-wienersletter-uaw-president-walter-reuther
20
Scarica