caricato da Utente20026

Filosofia del diritto

FILOSOFIA DEL DIRITTO LEZIONE 1
Quando si parla di rivoluzioni in genere se ne parla sempre in senso politico
In questo corso il concetto di rivoluzione è inteso come MUTAMENTO DEL MODO DI CONCEPIRE IL MONDO
IN SENSO TECNOLOGICO
Il primo testo in cui si parla di rivoluzione ha a che fare con l’astronomia = COPERNICO
-
Perché si impiega un termine astronomico per indicare dei cambiamenti politici? Una leggenda
apocrifa sostiene che, il 14 luglio del 1789 a Versailles, quando i rivoluzionari erano alle porte, una
serva disse al re “questa non è una sommossa ma una rivoluzione” perché era inarrestabile come il
moto degli astri
Possiamo parlare di quattro rivoluzioni diverse
1) COPERNICO = vi è il passaggio da un sistema geocentrico ad un sistema eliocentrico, ma l’idea
geocentrica è dura a morire, lo dimostra tutt’oggi l’impiego di termini pre-copernicani
2) DARWIN = non solo non siamo al centro dell’universo ma non siamo neanche al centro della catena
animale di questa terra
Piccola precisazione
= Lo studio critico della natura e dei limiti della conoscenza scientifica, le scienze non
forniscono la verità, secondo Karl Popper (falsificazionista) uno degli aspetti fondamentali della scienze è
che è CONFUTABILE
Per dimostrare che una congettura scientifica sia vera, per Popper, avremmo bisogno di infinite verifiche,
ma l’uomo è limitato
dimostrazione matematica che la matematica è INCOMPLETA
Per verificare che una congettura sia falsa basta UNA PROVA
3) FREUD = non siamo neanche più al centro di noi stessi, vedi inconscio e subconscio. Per precisare,
freud è il punto di partenza della rivoluzione, oggi si fa riferimento alle neuroscienze, perché
secondo la teoria di Popper Freud fa acqua da tutte le parti
4) INFORMATICA principalmente per mano di
-
Kurt Friedrich Gödel ha dimostrato l’incompletezza della matematica, arrivandoci con il
PARADOSSO DEL MENTITORE = data una proposizione autonegante come "Questa frase è falsa",
nessuno riuscirà mai a dimostrare se tale affermazione sia vera o falsa; se infatti fosse vera, allora la
frase non sarebbe veramente falsa (la verità della proposizione non invalida la falsità espressa nel
contenuto della proposizione).se invece la proposizione fosse falsa, allora il contenuto si
capovolgerebbe (è come se dicesse "Questa frase è vera") quando abbiamo appena affermato il
contrario.
Di probabile origine greca: se tutti i cretesi dicono bugie, trovare un cretese che vi dica “io sto mentendo”
-
Alan Turing ha formalizzato l’idea del calcolatore elettronico e contemporaneamente dimostrato
che ci sono problemi che nessun calcolatore al mondo potrà mai elaborare
nel 1950 Turing pubblica un articolo sulla rivista scientifica “Mind” chiamato “the imitation game”
in cui, oltre a esporre le teorie sopra elencate, si chiede COME RICONOSCERE UN ROBOT INTELLIGENTE
DA UN UMANO? Passando il test di Turing, al giorno d’oggi non vi è nessuna intelligenza artificiale che
sia riuscita nell’intento, perché gli uomini sono molto bravi a creare sistemi di intelligenza artificiale
LOCALI = specializzati in un campo preciso, meno a creare sistemi di I.A GENERALI
[John McCarthy ha coniato il termine Intelligenza Artificiale]
Ray Kurzweil = padre del
= Il Determinismo tecnologico è una teoria riduzionista
la quale sostiene che la tecnologia di una società guida lo sviluppo sociale ed i valori culturali, che va di
contro al determinismo sociale, che individua nella spinta sociale, caratterizzata dall'insieme delle
necessità umane, la base della nascita delle nuove tecnologie.
Leibniz, nato come giurista, risolverà il paradosso della tartaruga e di Achille. Nel 1670 presentò alla
Royal Society di Londra il progetto della prima calcolatrice meccanica in grado di eseguire
moltiplicazioni e divisioni. Un'altra grande intuizione di Leibniz fu alla base del primo tentativo di
costruire una calcolatrice che utilizzava il sistema numerico binario.
Voleva anche risolvere problemi giuridici con un calcolatore nel 1670.
Secondo il tecno-determinismo, il legislatore non può pensare di porre limite al progresso
dell’intelligenza artificiale, anche se la Commissione Europea ha presentato una proposta di legge per
bandire in EU gli occhiali a riconoscimento biometrico
Dal 2012 capo ingegnere di Google, ha calcolato che nel 2045 avremo una “coscienza” digitale, tesi
forse futuristica ma che contiene certamente un fondo di verità
-
LA LEGGE DI MOORE = Legge empirica che descrive lo sviluppo della microelettronica; a legge fu
enunciata per la prima volta nel 1965 da Gordon Moore, uno dei fondatori di INTEL e dei pionieri
della microelettronica.
AFFERMA CHE LA COMPLESSITA’ DEI MICROCIRCUITI RADDOPPIA OGNI 18 MESI
È un aumento esponenziale = fenomeno il cui andamento presenta un tasso di incremento o di diminuzione
costante
Mentre un aumento incrementale =
Siamo solo all’inizio di una rivoluzione per la quale le precedenti sembreranno poca cosa perché
1) POTENZA DI CALCOLO (potenza del primo IPhone uguale a quella per lo sbarco sulla luna)
2) VOLUME DI DATI PRODOTTI (vedasi “BIG DATA” = nel 2008 fu annunciato che quell’anno vennero
prodotti più dati che l’umanità abbia mai prodotto dai greci a quell’anno, e ogni anno aumenta
3) MACHINE LEARNING = È una branca dell'Intelligenza Artificiale e si basa sull'idea che i sistemi
possono imparare dai dati, identificare modelli autonomamente e prendere decisioni con un
intervento umano ridotto al minimo.
LA TECNOLOGIA NON È NEUTRA = non dipende da chi la usa, perché cambia il modo in cui fino a questo
momento abbiamo vissuto, indipendentemente dall’uso positivo e negativo che se ne fa.
Il rapporto non è più UOMO – TECNOLOGIA – UOMO ma TECNOLOGIA – UOMO – TECNOLOGIA
Cos’è tecnologico? Cosa non è in natura, c’è la tesi che l’uomo sia “tecnologicus” = dato che non
abbiamo peli lunghi per proteggerci o artigli per attaccare, l’unico motivo per cui siam riusciti a non
estinguerci è perché applichiamo il nostro ingegno nella creazione di oggetti che esulano dalla natura.
LEZIONE 2 CON DURANTE SUL CAPITOLO 1 DEL SUO LIBRO
Il libro parte con una tesi sostenuta dal filosofo Luciano Floridi del libro “la quarta rivoluzione”
Vuole portare alla luce la tesi implicita di libro di Floridi
Impatto di ICT = proietta l’impatto in una visione a lungo periodo che incide sul concetto di periodizzazione
storica
Floridi individua e periodizza alcuni passaggi della storia
-
Dimensione prestorica = segnata dall’assenza di ICT, cioè tecnologie che possano tenere traccia
dell’accadimento di eventi e organizzarla in contenuti che si trasmettano nel tempo.
Dimensione storica
Dimensione iper storica
Storia inizia con affermazione con qualche forma di ICT, perché ci sia racconto storico c’è bisogno di
tenere traccia di accadimento di eventi. Ciò può essere fatto attraverso comunicazione orale o con la
scrittura = essa permette di fare storia
Da un punto di vista storiografico, la storia moderna nasce attraverso l’analisi degli archivi, ovvero in un
momento molto vicino a noi
Ma quello che Floridi vuole sottolineare è che ICT hanno sempre progressivamente contribuito in più alla
formazione del benessere individuale e collettivo.
Ci sono alcuni momenti della storia in cui le ICT influenzano la società (es: la stampa)
Il fatto di raccogliere informazioni e organizzarle in archivio cambia la società moderna
Già nel 1600 (fitzgerald) diviene chiara l’idea per la quale il sapere può essere raccolto e organizzato e
dunque IL SAPERE DIVENTA POTERE
nel 1700 nascono le mappe come rappresentazione artificiale dello spazio  come si controllano i propri
territori senza averne una rappresentazione?
Attraverso rappresentazione dello spazio nasce uno degli elementi costitutivi dello Stato moderno = IL
TERRITORIO  potere statale = potere di controllo sul territorio
Floridi dice che ICT caratterizzano ancora più a fondo la modernità, perciò distinzione periodo storico e iper
storico
Le ICT in età contemporanea non contribuiscono solamente al benessere individuale e collettivo  MA LO
DETERMINANO
Società che dipendono dalle ICT per la costruzione del benessere
la rete degli scambi, finanziaria, la rete di comunicazione, la rete delle reti (internet) = sempre più il potere
prende una forma veicolare e si veicola con le ICT
Floridi associa questo tipo di considerazione di carattere storiografico a quello che è un altro processo in
corso, ovvero la quarta rivoluzione (libro di Pagallo) (Floridi riprende ripartizione da Freud)
“vi è un progressivo decentramento del ruolo dell’umano attraverso le quattro rivoluzioni
-
-
RIVOLUZIONE COPERNICANA = riconduciamo a Copernico in quanto quella rivoluzione ci fa
comprendere che la terra non è più al centro dell’universo. Relativizza la nostra posizione
cosmologica al centro dell’universo
RIVOLUZIONE DARWINIANA = riconduciamo a Darwin e diveniamo consapevoli di non essere più al
centro del regno biologico, non siamo specie privilegiata ma siamo specie che si evolve
RIVOLUZIONE FREUDIANA = potremmo definirla anche Cartesiana (con Cartesio, molti secoli prima,
si afferma l’idea che l’essere umano è la misura di tutte le cose e ha un privilegio nell’universo in
quanto soggetto cosciente “cogito” e caratterizzato da capacità di pensiero cosciente e
consapevole. Identità tra mente e corpo, siamo trasparenti a noi stessi).
Con Freud si rovescia questo assunto, lui ci dimostra che non siamo neanche al centro di noi stessi,
i motivi più profondi delle nostre scelte provengono dal nostro inconscio. Questi fattori
determinanti diventano a noi coscienti soltanto con effetto di ritardo  Comprendiamo il reale
senso di qualcosa che accade solo che è accaduta. Da Freud parte lo studio dell’inconscio, e sulla
sua scia le neuroscienze dimostreranno come non siamo interamente consapevoli delle nostre
scelte
Floridi introduce quarta rivoluzione
-
-
-
RIVOLUZIONE DI ALAN TURING = informatico inglese padre della computazione, diviene celebre
durante la guerra per aver decriptato il sistema di cifratura tedesco. Padre di alcune delle svolte
fondamentali che portano alla costruzione dei primi computer.
Quale elemento caratterizza questa quarta rivoluzione? Essa si compie con Turing ma in realtà
viene da lontano
In particolare dal 600, con quel complesso di filosofi (Leibnitz, Hobbes) che cominciano a dire che
PENSARE SIGNIFICA CALCOLARE = calcolare significa ridurre la realtà ad elementi che possiamo
calcolare e prevedere. Ragione diventa calcolante
Quando Hobbes dice che il sovrano fa le leggi e le pubblica perché i sudditi ne vengano a
conoscenza e dunque possano calcolare le conseguenze degli effetti del loro agire
I rapporti tra stati sovrani si imperniano sul cercare di calcolare le intenzioni del nemico
Fin dal 600 ai giorni nostri AVRA’ PIU’ POTERE CHI SAPRA’ CALCOLARE MEGLIO
Possiamo delegare la capacità di calcolo:
-
Alla mente umana (es ISTAT, Stato)
A strumenti costruiti dall’uomo  differenza è il potere di calcolo
Gli strumenti che mediano la conoscenza del mondo appartengono all’essere umano, o vice versa
Dal 600 in poi abbiamo iniziato a sviluppare degli strumenti di calcolo (es: le mappe)
Floridi nota come la parola computer, prima di designare il dispositivo di oggi, nell’800 definiva la
professione della persona che sapeva fare calcolo (oggi un ragioniere)
Il computer nel tempo è diventato uno strumento di capacità di calcolo, molto più potente dell’uomo
QUARTA RIVOLUZIONE SI COMPIE POICHE’ NON SIAMO NEANCHE Più LE CREATURE CHE POSSEGGONO
AL MASSIMO LA CAPACITA’ DI CALCOLO, l’abbiamo delegata a strumenti che calcolano più velocemente
di noi e meglio di noi
Potere computazionale = capacità di processare dei dati  degli input e trasformarli degli output.
Definizione simile ad algoritmo = una serie di istruzione che, se seguite, ci fa ottenere un determinato
scopo
Quando la capacità di calcolo viene presa in mano dai computer si genera un forte potere computazionale
(per calcolare non facciamo più affidamento su di noi ma sulle macchine)
Ci sono dei contesti in cui vogliamo conservare la presenza umana nel processo di calcolo? L’uomo è lì a
controllare i calcoli che deleghiamo alle macchine (in medicina ad esempio)
Il privilegio umano risiede ancora nella capacità di dare senso al mondo
-
Rimaniamo dei motori semantici migliori delle macchine. Sempre di più nel futuro avremo delle
questioni anche giuridiche che ruotano attorno alla capacità di dare significato a qualcosa.
MEANINGFUL HUMAN CONTROL = capacità dell’uomo di conservare un controllo significativo sulle
macchine a cui abbiamo delegato dei compiti.
Le macchine interagiscono tra di loro in dei sistemi complessi.
Complessità è una proprietà emergente di quei sistemi che sono costituiti da fattori che
interagiscono tra loro producendo dei risultati che non sono interamente riducibili alla
conoscenza dei singoli fattori
Perché questa dipendenza è complessa?
-
Sia per quello detto sopra
Sia perché certe macchine operano non in modo deterministico, cioè sono in grado di scegliere tra
alternative o modificare sé stesse  dotate di relativo grado di autonomia
Es: quando facciamo testa o croce, siamo capaci di prevedere una classe di risultati, ma non corrisponde
alla capacità di anticipare il risultato concreto  questo portato alle macchine
Da qua Durante dice che dobbiamo ragionare sull’impatto che questo potere computazionale ha
sull’organizzazione della nostra società.
Pagina 25 del suo libro  noi abbiamo a che fare con questo potere computazionale
-
Sia da un punto di vista quantitativo (trasformazione di input in output)
Sia qualitativo = impatto sulle società e sulle nostre vite
Si può decodificare secondo una triplice direzione
L’esercizio di questo potere caratterizza:
-
l’agire umano = abituati a riferire l’agire umano agli esseri umani. Un dato caratterizzante della
nostra epoca è che l’agire non è più una prerogativa umana: i sistemi computazionali
interagiscono col mondo, con noi “human computer interaction”, tra di loro.
Quando si manda un whatsapp, si fa una singola azione, ma quel sistema ne fa altre
La sfera dell’agire si è allargata ad altri, e ciò comporta problemi giuridici (es crisi del 2008 determinata da
algoritmi)
L’espressione intelligenza artificiale sempre meno designa qualcosa che è intelligente, ma sempre più
designa qualcosa che ha capacità di agire = capacità di agire in modo efficace (raggiungono obiettivo per
cui sono state programmate) che hanno le macchine pur non essendo dotate di alcun tipo di intelligenza.
Perché sono capaci di agire? Sia per potere computazionale sia per:
-
l’adattamento del mondo = io alla macchina assegno un compito e gli chiedo di porlo in essere
all’interno di un contesto più o meno strutturato. Tanto più il contesto in cui la macchina agisce è
strutturato  adattato al funzionamento della macchina. Tanto più la macchina sarà capace di
agire con successo
Di qua la tendenza attuale di cercare di trasformare ambienti non strutturati in ambienti strutturati, o di
adattare ambiti del mondo al funzionamento della macchina. (es: bambini piccoli e cas)
Noi dobbiamo far sì che le macchine si trovino a agire in un mondo definito in termini sintattici, non
semantici
-
-
-
ad esempio il traffico è un ambiente non strutturato, in cui la nostra capacità sintattica (l’insieme di
regole) è costantemente integrata dalla nostra capacità di dare significato a quelle regole. Perciò la
macchina che si guida da sola non è in grado di guidare in mezzo al traffico
si possono costruire dei sistemi bravissimi negli scacchi perché l’ambiente degli scacchi (scacchiera)
è un ambiente strutturato, e le mosse derivano da regole costitutive (dicono come fare le cose che
possiamo fare)
il calcio è all’opposto (regole non costitutive = ci dicono solo cosa non possiamo fare; come giocare
devi saperlo fare tu. L’ambiente non è strutturato)
Se vogliamo fare affidamento sulle macchine siamo costretti a ritagliare il mondo attorno a loro.
Floridi usa termine INVOLUCRO = spazio costruito intorno ad una macchina, definisce l’insieme delle libertà
della macchina stessa.
L’intelligenza artificiale non deve imitare l’agire umano, ma raggiungere il risultato che gli uomini sono in
grado di raggiungere anche con modalità differenti = AUTOMAZIONE
Noi non solo deleghiamo i compiti alle macchine, ma tendiamo a progressivamente costruire il mondo in
una direzione che sia strumentale al modo in cui le macchine intendono il mondo.
Più è elevato il contenuto semantico di un’attività, meno quell’attività è delegabile alle macchine
Tanto più un’attività sia scomponibile in piccole parti calcolabili, tanto più potrò delegare quell’attività alla
macchina
OPPURE ADATTARE IL MONDO al funzionamento delle macchine
-
rappresentazione del mondo = non del tutto simile alla nostra.
Ci sono software che rappresentano il mondo come gli animali che non vedono, quindi il calcolo del
percorso si fa saltando gli ostacoli
Vuol dire, contrariamente a quello che ha detto Chris Anderson (diluvio dei dati = porterà alla fine della
teoria  Se abbiamo dei dati ci basta calcolarli per ottenere dei risultati)
In realtà tutto l’opposto = il potere computazionale moltiplica, non riduce i punti di vista, crea molteplici
rappresentazioni. Il modo in cui 50 anni fa gli impiegati in banca costruivano il profilo del buon mutuatario
tramite la richiesta di alcuni dati è radicalmente cambiato dal modo in cui un software processa i dati per
costruire il profilo del buon mutuatario.
, non per forza connessione causale, ma c’è correlazione statistica.
= sempre di più ci affidiamo a sistemi di intelligenza artificiale che funzionano
ma non sappiamo perché (es: AB TEST, le scelte fatte si correlano ad altri profili per misurare chi sceglie di
più l’una o l’altra immagine e da lì si fanno correlazioni statistiche che però danno indicazioni che
funzionano)
VISIBILITY PRINCIPLE = SE FUNZIONA SI FARA’
[il termine potere è molto complesso = spesso quando cerchiamo di definire un concetto, lo definiamo in
relazione a qualcos’altro (per definire potere facciamo ciò in relazione a chi ha potere, agli strumenti di
potere).
Definire il potere in astratto non è semplice. In genere si ha potere se si può incidere sulla vita altrui,
oppure potere è l’essere in grado di fare qualcosa che gli altri non sono in grado di fare.
Lunga tradizione di riflessione sul potere (es: Max Weber = potere carismatico)
Quale elemento interessa a Durante? In questa ampia nozione di potere, esso coincide anche con la
capacità di creare le condizioni che permettono l’esercizio del potere = quanto più creerò le condizioni
per orientare le scelte degli altri tanto più avrò potere
Esempio: potere economico = se ho tante risorse economiche posso utilizzarle per comprare e vendere,
tanto potere economico avrò quanto più si creeranno le condizioni per il suo esercizio, ovvero ci sono tante
cose che si possono comprare e vendere.
Kant = ha già chiara una cosa che diventa vera ai nostri giorni  Società è dominata dal potere economico.
Per Kant cos’è che ha dignità? Ha dignità ciò che non ha un prezzo di mercato, irriducibile allo scambio.
Il potere economico si esercita trasformando il mondo in qualcosa che può essere venduto ed acquistato
Ci sarà tanto più potere computazionale tanto più la realtà sarà rappresentata in termini di dati da
calcolare
sistema di intelligenza artificiale avversario = Lo spam si allena a riconoscere ciò che è spam, e più noi lo
aiutiamo a distinguere, più esso diventa tale]
tutto ciò solleva dei problemi nel diritto  il nostro modo di confrontarci nel diritto deve essere condiviso
epistemologia = teoria della conoscenza, sottesa all’ambito processuale deve essere la stessa per tutti e
tre attore-convenuto-giudice. Non possiamo avere un concetto di ragionevole dubbio differente
abbiamo dei presupposti epistemologici all’interno del processo che sono condivisi da tutti. Nell’ambito
istituzionale, che è strutturato, quei presupposti li dobbiamo tutti condividere e seguire, altrimenti diventa
impossibile contestare qualche cosa
es: c’è un principio giuridico secondo cui l’onere della prova grava su chi accusa. Se si rovesciasse l’onere
della prova per il convenuto è impossibile dimostrare la falsità di quella prova (se ti accuso di mentire,
come posso provare di non aver mentito?)
l’epistemologia soggiacente deve essere condivisa dunque da tutte le parti.
Quindi se io produco un’azione dettata da un’intelligenza artificiale non determinata, come fa la
controparte a contestare una decisione prodotta che anche se corretta non sappiamo spiegarci il perché?
Il diritto stabilisce dove ci si ferma in chiave diagnostica e dove si interrompe una regressione causale (es:
guardia e macchina). Quindi si devono elaborare nuove categorie o come adattare le categorie già esistenti
al mondo delle AI
Considerazione ulteriore = ciò detto finora è che abbiamo questi tre elementi. Nel testo si fa riferimento a
Michelle Fere (“lo stato della crisi”) = dice che c’è bisogno di venire a patti con la rappresentazione della
realtà basata su dicotomia soggetto-oggetto (dicotomia oggi desueta).
Questa dicotomia tende a rappresentarci il mondo con ciò che sta davanti a noi, fuori di noi, e ciò si
contrappone all’idea che di fronte ci sia un soggetto che prende iniziativa anche nei confronti dell’oggetto.
Lo può prendere, governare, e eventualmente distruggere. L’unico portatore di diritti è il soggetto.
Questa rappresentazione del mondo è vecchia e pericolosa = perché tendiamo ad immaginare che
proteggiamo gli oggetti solo quando sono strumentali alla vita del soggetto
Da rappresentazione descrittiva finisce per essere normativa = organizza e orienta i nostri comportamenti
Serre su questo prende una posizione (Pan computazionale) = dice che dovremmo dire che gli enti del
mondo non si dividono in s e o, ma fanno parte di un’unica categoria chiamati SISTEMI INFORMATIVI
Tutti gli enti sono caratterizzati da
-
Producono
Scambiano
Immagazzinano
Processano informazioni
Tutti portano dunque un contributo più o meno grande all’ecosistema in cui viviamo. Dobbiamo rompere
con l’antropocentrismo e pensare che tutti gli enti possono avere eguali diritti se possiedono queste
quattro caratteristiche
Il mondo non è più un insieme di oggetti a nostra disposizione ma siamo parte di un ambiente definito in
cui l’essere non è più definito dalla mera esistenza ma dalla capacità di interagire con questi enti, quindi
dall’insieme di tutte le interazioni possibili tra enti
Il nostro modo di percepire il mondo è sempre quello di due soggetti che combattono tra loro e non si
rendono conto di star rovinando quello che li circonda.
Tecnologia dunque è sempre meno insieme di strumenti nelle nostre mani e sempre più qualcosa che
cambia il mondo che ci circonda
Qual è il punto? NON DOBBIAMO Più RAGIONARE IN TERMINI DI SOGGETTO-OGGETTO MA IN TERMINI DI
AMBITI O FORME DI VITA.
-
Forme di vita = identificano il contesto in cui viviamo, che è caratterizzato da regole sintattiche (si
seguono per raggiungere obiettivi) e semantiche (con cui diamo senso al mondo)
Se modifichiamo regole sintattiche modifichiamo il contesto in cui viviamo
LEZIONE 4 CON PAGALLO CAPITOLO 3 GOVERNANCE
Che differenza c’è tra governo (ciò che studiamo in costituzionale) e governance (in filosofia)?
Governance = per via della terza accezione di complessità (problemi che investono i sistemi giuridici nel
loro complesso)
Per affrontare i problemi di questa complessità, l’approccio tradizionale (governo) è insufficiente, perciò
non si parla del governo di UE ma di governance europea, o governance di internet.
Prima di parlare di governance, torniamo a definizione tradizionale di governo:
-
John Locke  padre del liberalismo moderno. Ha scritto un’opera che fa riferimento all’azione di
governo
Padre delle moderne dichiarazioni dei diritti umani.
Se Hobbes rappresentava la variante assolutistica del contratto sociale – Locke è la variante liberale del
contratto politico
Stato di natura – contratto sociale- società civile
Locke pubblica proprio nell’anno della Gloriosa Rivoluzione del 1689  motivo per cui lo stato di natura di
Locke (stato in cui ciascuno di noi ha dei veri e propri diritti) è diverso da stato di natura di Hobbes
1) Diritto alla vita
2) Diritto alla libertà
3) Diritto agli averi
I diritti li compendia in uno solo = DIRITTO DI PROPRIETA’  proprietà legata a doppio filo con il proprio
lavoro, Locke uno dei primi teorici della moneta
Idea giusnaturalistica per cui solo perché siamo vivi abbiamo diritto a questi tre diritti.
Perché allora uscire dallo stato di natura se già abbiamo questi tre diritti?
PROBLEMA = se si discute su è il proprietario di un oggetto, in stato di natura non c’è un terzo che possa
dirimere questa contesa  questo tipo di discussioni porta a stato di natura di Hobbes (il più forte si
appropria l’oggetto). Ecco perché conviene uscire dallo stato di natura e stipulare un contratto sociale.
E allora in cosa consiste il contratto sociale di Locke?
-
-
È un contratto a prestazioni corrispettive (do ut des)
Cosa do per ricevere cosa in cambio? Per Locke si deve fare i conti con il diritto che avremmo in
stato di natura a cui dovremo rinunciare in contratto (diritto di farsi giustizia da sé)
Ciascuno di noi, nella stipulazione del contratto, rinuncia a farsi giustizia da sé, per far si che tutti gli
altri diritti naturali siano garantiti dai miei rappresentanti (mai la parola sovrano, da Hobbes è
troppo assolutistica) nella società civile.
Non è un governo senza vincoli (Hobbes) ma chi esercita il potere politico è limitato dai nostri diritti
naturali (tenuto a tutelare la nostra vita, libertà, i nostri averi)
Se il governo calpesta i nostri diritti nella società civile? chi decide se il governo sta calpestando i
nostri diritti?
Grave problema di Locke = da una parte introduce un nuovo diritto nella società civile:
-
Diritto alla rivoluzione, oppure più propriamente diritto alla ribellione (di tradizione medievale)
Diritto presente in costituzione federale tedesca, non nella nostra (Bettione)
Ma è grazie a questo diritto alla ribellione che gli inglesi sono arrivati alle guerre civili
Locke, alla fine del secondo trattato, (nel caso in cui potere costituito e il popolo collidano) dice che
DECIDERA’ DIO CHI AVRA’ RAGIONE ATTRAVERSO LA VITTORIA SUL CAMPO DI BATTAGLIA.
Bisognerà attendere il 1789 per avere una risposta più esauriente da parte dei padri fondatori americani.
-
Trovando un organo superiore (corte costituzionale) negli USA la corte suprema che dirimi i
conflitti tra poteri dello stato e tra rappresentanti e rappresentati
Prima dichiarazione in cui i diritti valgono per ciascun essere umano è quella americana.
Gli inglesi fecero il Bill Of Rights  diritti che appartengono solo agli inglesi
Questa soluzione ha trovato molta difficoltà ad essere recepita in Europa (prima sentenza corte
costituzionale è de 1956).
-
Jean Jaques Rousseau  padre della democrazia moderna.
Fin ora né Hobbes (potere coincide col sovrano) né Locke si sono preoccupati di democrazia
La condizione senza la quale nessun ordinamento può dirsi legittimo è la democrazia
Prima di Rousseau la democrazia era un regime che si addiceva soltanto ai piccoli paesi come la Svizzera di
Rousseau (democrazia diretta). (i nostri padri fondatori hanno deciso che certe materie non possono essere
messe in dubbio con referendum)
Rousseau è uno spartiacque, con pubblicazione di “contratto sociale”
-
Anche lui parte da uno stato di natura che si deve abbandonare stipulando un contratto sociale che
sarà il fondamento della società civile.
Come funziona stato di natura?
Per Rousseau è un’ipotesi (“non è mai esistito, non esiste e chissà se esisterà mai”) che formuliamo per
gettare luce sulla nostra condizione umana.
(Machiavelli “uomo reo” = non che l’uomo si antropologicamente cattivo, ma ci conviene supporre che
lo sia per essere preparati)
Lo stato di natura è uno stato in cui ciascuno di noi è unico  fa quello che vuole
Tutto gioca attorno a VOLERE e POTERE
1) Stato di natura  V = P (identità entro i limiti della fattibilità fisica) questa condizione di partenza
getta luce su chi siamo adesso, ovvero
2) Adesso  V e P non coincidono, ma in genere si vuole più di quanto si può V > P
Attraverso il contratto sociale Rousseau dice che si arriva alla prima identità nella società civile. essere liberi
pur vivendo in società “la quadratura del cerchio”
COME SI FA AD ESSERE LIBERI PUR VIVENDO ASSIEME AGLI ALTRI CHE DESIDERANO FARE CIO’ CHE
VOGLIONO SENZA CHE SI SCATENI STATO DI NATURA DI HOBBES?
-
Attraverso il contratto sociale
È un contratto che ciascuno di noi fa con sé stesso. Ciascuno di noi deve sdoppiarsi, deve contrattare con se
stesso
-
Da una parte uomo dello stato di natura (Homme) e come tale ciascuno rinuncia alla propria
autenticità (rinuncia a identità V = P)
Dall’altra parte uomo come cittadino dell’istituenda società civile si riprende questa identità tra
volere e potere (V = P)
Come? Attraverso l’istituzione dell’assemblea della democrazia diretta nella società civile: nella società
civile continua identità perché ciò che facciamo in società civile lo decide l’assemblea in cui ognuno decide
cosa fare
PROBLEMI:
1) In un’assemblea come quella di Rousseau = quando si deve decidere si vota e si farà ciò che vuole la
maggioranza. Ma a che titolo io, che volevo fare altro rispetto alla decisione della maggioranza,
sono libero (V = P)?
Rousseau dice che se ci si trova nella minoranza sia nell’errore. Pensava che l’unico diritto della minoranza
era di fare autocritica (dopo WW2 molti autori hanno iniziato a annoverare Rousseau come padre del
totalitarismo moderno, non democrazia)
Perciò esiste il secondo comma dell’articolo 1 della costituzione (non siamo stato puramente democratico
ma liberal democratico
2) Nella nostra esperienza quotidiana non possiamo sempre fare ciò che vogliamo. Rousseau vuole
portarci ad identità, in 2 possibilità:
1) Aumento il mio potere (lettura rivoluzionaria di Rousseau)
2) Diminuisco il mio volere (la democrazia in realtà è un’operazione psicologica)
Per affrontare questi problemi abbiamo un terzo che dirima questa classe di controversie. Popper direbbe
che la democrazia è un regime preferibile agli altri perché è un modo per cambiare governanti senza uno
spargimento di sangue
Ci sono diritti che sono la stessa condizione della democrazia, dunque non possono essere messi a voto =
presupposto dello stato di diritto.
Per esempio, l’articolo 139 (unica norma ultrattiva della costituzione, non si può cambiare) = la forma
repubblicana è immodificabile.
PERCHE’ I PADRI FONDATORI HANNO DECISO DI NON PERMETTERE AI LEGISLATORI FUTURI DI CAMBIARE
CIO’?
-
Forma repubblicana è la condizione stessa sine qua non per l’esistenza della democrazia (Popper =
paradosso della democrazia) può portare alla mancanza di antinomia tra il primo e l’ultimo articolo
della costituzione
Sindacato di costituzionalità delle leggi = spetta alla corte decidere la costituzionalità delle leggi
Nel 1804 c’è stato un caso tra due padri fondatori (Madison vs Melbury)  il problema era se la corte
suprema avesse titolo di decidere questo tipo di causa (non era scritto da nessuna parte)
Il primo presidente della corte suprema fu il giudice Marshall  decisioni dei giudici sono fonti del diritto
Marshall fu presidente per 30 anni. Per risolvere il caso fa passare 4-0 il principio secondo cui la corte ha la
legittimità di sindacare le leggi varate dal congresso di Washington
COME HA GIUSTIFICATO QUESTO PRINCIPIO? in caso di contrasto tra leggi ordinarie e costituzionali il
giudice dovrà far valere quest’ultime perché ha giurato sulla costituzione.
Tornando alla governance  per affrontare dei problemi complessi c’è bisogno di un insieme di organismi
anche privati che prendono decisioni molto rilevanti
Ican = organo che garantisce l’univocità di tutti gli indirizzi di internet. Gli stati sovrani non hanno nessun
potere a riguardo.
[la costituzione europea è composta dai suoi trattati, dal 1957 in poi]
In caso di conflitto tra i nostri diritti nazionali e i diritti europei? La corte di giustizia europea scrive nella
sentenza “il diritto dell’allora CEE è un diritto di nuovo genere” = perché per la prima volta nella storia del
diritto internazionale c’è un ordinamento che crea direttamente diritti e doveri in capo ai cittadini degli
stati membri. (articolo 10 della costituzione italiana  rapporti tra stati sovrani erano gestito sempre dal
parlamento nazionale, che recepiscono gli accordi internazionali anche decidendo di non includere delle
parti di un accordo nella legge).
In Europa invece ci sono le direttive e i regolamenti che ha creato diritti ed obblighi senza bisogno che lo
stato italiano recepisca alcunché  MAI VISTO
L’Europa non è uno stato federale, a differenza di USA
Principio della supremazia del diritto europeo (sentenza 1963)
Nel 1962 il parlamento italiano decide la nazionalizzazione dell’energia elettrica del paese. (unico caso in
cui articolo 43 di costituzione è stato applicato)
Come mai il primo governo tendente a sinistra del paese decide di espropriare le aziende private e creare
un colosso nazionale?
Nel 1957 Italia si era impegnata con Europa su temi come la gestione dell’energia elettrica
PREVALE COSA = la nazionalizzazione dell’Enel, o l’integrazione europea? LA CORTE COSTITUZIONALE
RISOLVE QUESTA ANTINOMIA (Costa vs Enel) DICENDO CHE LE DUE NORME IN GIOCO SONO DUE LEGGI
ORDINARIE.
Che si fa quando due leggi ordinarie non coincidono = CRITERIO CRONOLOGICO (lex posterior) l’ultima legge
prevale  legittima dunque la legge del parlamento perché prevale la legge promulgata dopo
In questo caso l’Italia prese una multa.
Si dovrà attendere il 1973 affinché qualcosa inizi a cambiare in Italia con il “caso Frontini”
-
In questo caso Corte ammette per sola ipotesi la supremazia del diritto europeo (nell’ambito di
competenza delle istituzioni comunitarie) e dice “anche a supporre ciò, tuttavia, in nessun caso, il
diritto europeo potrà mai violare i principi supremi della costituzione italiana”.
Alla fine la corte costituzionale ammette che, nei settori di sua competenza, il diritto europeo deve
prevalere sul diritto nazionale  riconoscimento avviene nel 1984
Da quarant’anni i nostri giudici ordinari sono giudici double face
-
Quando si porta istanza di incostituzionalità di una legge, il giudice deve sospendere il proprio
giudizio e mettere gli atti alla corte costituzionale
Se si trova una legge illegittima perché contrasta col diritto europeo, ma non col diritto europeo, i
giudici diventano di common law  tenuti a tener conto solo del diritto europeo
In Germania
Ci si è posto lo stesso problema davanti al tribunale federale costituzionale
Caso di contrasto tra diritto europeo e diritto tedesco quid iuris
Nel 1974 in nessun trattato europeo c’era un minimo riferimento ai diritti dell’uomo (es: parità di
trattamento uomo e donna non era pensata tanto ai sensi dell’articolo 3 comma 1 costituzione. Il problema
era visto in logica economica “uomo e donna sono uguali perché devono essere pagati a lavoro allo stesso
modo”)
-
Corte costituzionale tedesca dice = fin tanto che il diritto europeo abbia uno standard di tutela dei
diritti umani più basso del nostro, io stato tedesco ho il diritto di decidere
Corte di giustizia europea negli anni 70 dichiara che i diritti umani sono parte integrante del diritto
europeo
Nel 1992  trattato di Maastricht
1989  cade il muro di Berlino. Mitterand e cancelliere tedesco
Mitterand propone la creazione di una moneta unica  chiedere ai tedeschi di rinunciare alla loro
autonomia economica
LEZIONE 5 CON AURUCCI (CAPITOLO 4 SULLE FONTI DEL DIRITTO)
Processo di Tokyo = in cui sono stati processati per crimini contro l’umanità e crimini di guerra nel contesto
dell’oriente.
Codice di Norimberga = primo codice deontologico della ricerca medica, nato come conseguenza degli
esperimenti disumani che vennero condotti nella Germania nazista (aktion 4) nei confronti di ebrei e
persone disabili
In esso è previsto il consenso informato  l’attenzione del ricercatore si sposta dall’integrità del soggetto
ai suoi dati personali
FONTI DEL DIRITTO
Studio delle fonti: quando si parla di fonte del diritto si fa riferimento alla parte “statica del sistema” = in un
contesto come quello giuridico, fonte del diritto fa pensare ad un luogo dal quale sgorga il diritto, il fattore
che produce diritto
Una metafora che riconduce a qualcosa che rimane statico, che non muta, invece in ambito giuridico le
fonti del diritto hanno una stabilità relativa:
-
Trasformazioni riguardanti i fattori di produzione normativa dell’ordinamento in tutti i sistemi
giuridici (ad esempio ICAN = società di diritto privato che assegna gli indirizzi di rete (IP). È un
fattore di produzione del diritto nuovo)
Oggi, il ruolo degli Stati si è ridotto ad una mera funzione consultiva, per cui decisioni ad alta incidenza
politica ed economica sono prese da una società di diritto privato con sede in California, non dallo Stato.
I governi e gli stati nazionali, vecchi monopolisti delle fonti di diritto, abbiano anche di recente tentato di
privare ICANN dei suoi poteri decisionali
FONTI = STRUMENTO CON CUI I GIURISTI MIRANO A FORMALIZZARE LA MODALITA’ ATTRAVERSO LE
QUALI IL DIRITTO SORGE, MUTE E SI ESTINGUE
Queste modalità sono mutevoli nel tempo, non facilmente, per cui nel tempo abbiamo diversi assetti del
sistema delle fonti
-
Sistema antico e medioevale delle fonti del diritto, pluralità delle fonti
Paradigma di Westfalia (finisce con i due processi di prima)
Stato dell’arte odierno  società ICT dipendenti  si torna in un certo senso a punto uno perché
c’è pluralità di fonti del diritto
Oggi ci concentriamo su Westfalia
Kelsen = diceva che la metafora delle fonti del diritto detta sopra è fuorviante. Fonti del diritto sono delle
METANORME (norme che disciplinano le forme attraverso cui si crea modifica o estingue il diritto il un dato
sistema giuridico)
-
-
-
Esempio = l’atto, per avere valenza giuridica, l’atto (esame universitario) prima di tutto il professore
deve avere la competenza per farlo, perché ha il titolo ed è stato nominato dal dipartimento
Stesso vale per il vigile urbano  l’atto (multa) ha valenza giuridica solo se la persona che produce
l’atto ha il titolo per farlo, e il titolo viene dal superamento dell’esame di vigile urbano
Oltre che il soggetto, c’è altra valutazione da fare  i due atti saranno validi solo in regione di
un’ulteriore norma sovraordinata che la dota di validità (norma che fissa il modo in cui altre norme
sottordinate possono creare o modificare o estinguere il diritto)
Dunque bisogna necessariamente risalire al livello gerarchicamente sovraordinato definito fonte
del diritto
Ci sono due paradossi a questo
 CONSUETUDINE = per Hobbes non è la lunghezza del tempo che conferisce validità giuridica ad una
consuetudine ma la volontà del sovrano, che si manifesta col silenzio (introduce il SILENZIOASSENSO)
 REGRESSIONE ALL’INFINITO = ci deve sempre essere una norma sovraordinata che disciplini una
norma sottordinata  se andiamo sempre più indietro, prima di costituzione, non troviamo nulla
Kelsen risolve con GRUNDNORM o norma fondamentale = espressione tautologica, fonte comune della
validità di tutte le norme appartenenti allo stesso ordinamento, un livello 0, ancor prima della costituzione.
È un espediente a cui ricorre Kelsen per mettere argine alla regressione all’infinito
Affianco a queste fonti normali (extra ordinem) del diritto o (contra ordinem) ci sono atti o fatti che sono
fonti dirette del diritto
1) Un atto o fatto che, pur difforme dal modello previsto dal sistema legale (pur illegale) tuttavia è
fonte del diritto perché “realizza il suo scopo”
Le fonti extra e contra ordinem sono rilevanti per studiare se la giurisprudenza sia o meno fonte del diritto
negli ordinamenti di civil law. (in common law la giurisprudenza è fattore di produzione del diritto, i giudici
producono il diritto)
Dialettica delle istituzioni tra gubernaculum e iurisdictio:
1) Gli organi della iurisdictio possono essere chiamati a sindacare la legittimità delle scelte
politiche prese dagli organi del gubernaculum
2)
3)
Per colmare una lacuna normativa (punto 3): l’articolo 12 delle preleggi autorizza il ricorso all’analogia,
salvo in maniera penale, nonché ai principi generali dell’ordinamento, ovviamente declinati in chiave
costituzionale.
Ad esempio nella tutela della riservatezza in Italia:
-
-
nel 1956 la cassazione ha negato l’esistenza di un diritto autonomo alla riservatezza.
Poi sentenza di cassazione del 1963 si afferma l’esistenza di un diritto assoluto di libera
determinazione dello svolgimento della personalità, diritto che può ritenersi violato quando si
divulgano notizie della vita privata senza il suo consenso
Sentenza della corte costituzionale del 1973  ha incluso il diritto alla riservatezza tra i diritti
inviolabili dell’uomo che la Costituzione garantisce
Sentenza di cassazione del 1975  si uniforma alla decisione della Consulta, riconoscendo del pari
l’esistenza di un autonomo diritto alla riservatezza nell’ordinamento giuridico
SENTENZA 1996
[in ambito sovranazionale (come l’UE) direttiva deve essere recepita nell’ordinamento statale,
regolamento è direttamente applicabile ai cittadini degli stati membri]
MODELLO DI WESTFALIA = 1648 pone fine alla guerra dei trent’anni, rispecchia i principi della filosofia
giuridica e politica di Hobbes
-
Cosa diceva Hobbes = sistema delle fonti che rispecchi il patto unilaterale col sovrano di Hobbes
sarà monistico  autorità del sovrano è la fonte fondamentale del diritto
Il modello di Westfalia non è esattamente conforme alla filosofia estrema di Hobbes, ma è molto utile per
evidenziare le differenze tra sistema delle fonti medioevale e quello delle società ICT-dipendenti
Partendo dal sistema di pluralismo medievale = tantissimi fattori che producono diritto
-
Fonti fatto (legislazione)
Fonti atto (consuetudini)
Nel linguaggio di Hayek (taxis e kosmos) Taxis = tradizionali fonti atto dell’ordinamento, ossia la
legislazione
-
Kosmos sono le fonti fatto del diritto, come le consuetudini e gli usi
Aggiungiamo il FORMANTE DOTTRINALE (riscoperta dei testi giustinianei/interpretazione critica di
Irnerio e scuola dei glossatori)
 ciò forma il diritto comune di ispirazione romana che si applicava in tutto il continente europeo
Ius Comune = viene spezzato solo col codice napoleonico (1804). Savigny aveva studiato questo sistema.
Caratteristiche di pluralismo medioevale
In pluralismo medioevale = Il monarca in realtà non era libero dalle leggi, ma c’era un rapporto che vigeva
tra il diritto comune (di matrice romana) e il diritto proprio (fatto dal re, imperatore).
In pluralismo medioevale = passaggio dalla natura personale e fiduciaria delle relazioni giuridiche, al
principio di sovranità degli stati  il sovrano produce del diritto in un determinato ambito territoriale, e
solo in questi confini il diritto è valido (concetto di territorialità)
Distinzione tra diritto proprio e diritto comune (tipico di medioevo). Il diritto proprio non aveva una
delimitazione geografica ma anzi poteva avere valenza trasversale (es: lex mercatoria)
In Westfalia c’è distinzione tra diritto interno (nazionale) ed esterno (straniero)
Perché Hobbes aveva una visione così negativa dello stato di natura? Perché avendo vissuto due guerre
civili, capisce che pluralità delle fonti fu una delle ragioni principali a portare gli uomini gli uni contro gli
altri. Non mancanza di regole ma tutti volevano avere ragione attraverso pluralità di fonti
In Westfalia il diritto che vale è stabilito dalla volontà del sovrano
-
Abolizione tra gubernaculum e iurisdictio
Gli ordinamenti si fondano sul principio di territorialità. Che stabilisce la non ingerenza
Il monopolio legale della forza è riservato al sovrano  unici soggetti del diritto sia interno che
internazionale (decisione di fare guerra)
Crisi del modello di Westfalia = possibilità di sottoporre a giudizio l’operato dei sovrani nazionali
Tribunale militare internazionale da il via al processo di Norimberga e di Tokyo
La difesa che veniva fatta più volte era che “si stessero seguendo gli ordini dall’alto” e non vi era una legge
che punisse tali crimini
Da qui partono le basi per il diritto di guerra internazionale
Ancora più interessante il processo di Tokyo – svolto dopo che tutte le problematiche sulla legittimità del
processo di Norimberga erano già state discusse.
-
Il tribunale militare per l’estremo oriente era molto più ampio  comprendeva India e Filippine. I
giapponesi non volevano si processasse l’imperatore perché era considerato come Dio in terra. I
giapponesi avevano una concezione della vita umana in guerra che equivale a 0, diverso dalle
concezioni degli altri stati.
Processo di Norimberga fu il primo processo mediatico, il primo processo in cui fu usata la traduzione
simultanea.
Kelsen era contrario al principio del processo di Norimberga  non si poteva dire che URSS e USA non
avessero commesso dei crimini durante la guerra
Nel 1993 si istituisce il tribunale per i crimini di guerra nell’ex Jugoslavia, nascita di altri tribunali per i
crimini di guerra  trattato di Roma del 1999
Gli stati cominciano ad apparire come “troppo piccoli” “troppo grandi” rispetto ai problemi posti dalle
società ICT-dipendenti
Ciò non significa che lo stato debba sparire, ma ridimensionarsi
Processo di Norimberga
La disciplina che regola la ricerca biomedica nasce dal processo di Norimberga.
Questa disciplina ha sempre avuto una caratteristica reattiva  in piena violazione dei diritti delle persone
C’è il problema di garantire che i diritti di queste persone siano rispettati nel contesto della ricerca. C’è
sempre una componente pericolosa ma essa non può mai essere superiore rispetto ai benefici
-
Nel processo di Norimberga i giudici si trovano per la prima volta con degli esperimenti condotti su
cavie umane
Si è incominciato a promulgare un codice deontologico = comparabile a strumenti di soft law
(disciplina non coattiva ma autoritativa, si traduce in principi etici, autoregolamentazioni)
C’è differenza tra ricerca:
1) Sperimentale = si sperimenta un farmaco sul soggetto, in genere metà prenderà un placebo l’altra
il farmaco sperimentale
2) Osservazionale = non interviene sul soggetto con un farmaco, ma raccoglie i dati di un soggetto. La
raccolta può essere prospettica (vedere come migliora la cartella clinica) o retrospettiva (si
analizzano i dati del passato e si sfruttano per cercare di identificare i dati di rischio)
Codice deontologico del processo di Norimberga = contiene il consenso informato; le persone devono
essere informate sui potenziali rischi della ricerca, deve essere un esperimento che abbia una validità
scientifica, ci si aspetta che i benefici della ricerca siano ampiamente superiori ai rischi
Il caso dell’Alabama sui malati di sifilide = ricerca osservazionale condotta su soggetti neri iniziata negli anni
30 e finita negli anni 70. Dicevano di iniettare dei farmaci, ma non era vero. Si effettuavano solo dei
prelievi, anche molto dolorosi, con cui analizzavano l’avanzamento della malattia
I pazienti furono doppiamente ingannati  da questo studio nasce il principio etico della ricerca vigente
per gli Stati Uniti
ADESSO TUTTI I PRINCIPI SONO DIVENTATI LEGGE
C’è un cambio del paradigma nella ricerca  dati personali
Nel 2000 si è scoperto che tutte le malattie definite complesse hanno una componente ereditaria (non è
determinismo genetico, ciò che è definito nel gene non è detto che poi si esprima nel fenotipo).
Il cambio di paradigma è che non l’oggetto fondamentale della ricerca non più le persone ma il materiale
biologico
In particolare il materiale biologico è I DATI  abbiamo una visione in tempo reale della realtà, questi dati
sul nostro comportamento o stile di vita o dati clinici, integrati coi dati genetici  possono dimostrare le
cause delle malattie.
Questi dati non raccolti direttamente dal soggetto ma sono dati già presenti nelle biobanche, nelle cartelle
cliniche.
Problema = se devo riutilizzare dei dati che sono stati raccolti per altri scopi (non solo da ospedali ma da
agenti privati). Il grandissimo e pervasivo utilizzo dei dati ha reso il consenso informato molto debole,
perché ci sono dei limiti nell’autodeterminazione del soggetto in un mondo ICT-dipendente
Nuovi tipi di consenso:
-
-
Consenso “broad” = il soggetto da il consenso all’utilizzo dei dati per determinate ricerche, sapendo
che la procedura per l’utilizzo dei dati è stabilita da determinati criteri da rispettare. Può essere
applicato per le biobanche
Consenso dinamico = il soggetto da un consenso continuo: si riceve continuamente un messaggio di
conferma di voler fare utilizzare i propri dati
a livello di GDPR ci si è spostati (?) e ci si è concentrati sul garantire la sicurezza del dato  Il principio di
accountability = se succede qualcosa con il trattamento dei miei dati ci sono sanzioni molto più alte in caso
di negligenza di chi ha trattato i dati.
In Europa c’è discrezionalità statale = in Italia ad esempio si usa ancora il consenso informato.
Tutto si traduce in due interessi contrapposti:
-
Interesse della società ad avere un progresso scientifico
Diritto del soggetto alla riserva dei dati e al controllo dei dati personali
In un contesto in cui il consento non garantisce più questo tipo di controllo.
IN QUESTO CONTESTO IL DIRITTO NON È ABBASTANZA
-
Ad esempio, in GDPR, ci sono eccezioni per cui si possono usare i dati personali senza chiedere il
contesto  sfiducia dei singoli delle istituzioni
Come si risolve? Non col diritto, ma con coinvolgimento di associazioni di pazienti nella governance
del dato
LEZIONE 5 CON CIANI SU CAPITOLO 4 DEL LIBRO DI PAGALLO
Le fonti delle società ICT-dipendenti
Fonte è metanorma  norma sopra altre norme. È una norma che ci chiarisce:
-
Come si creano le norme
Dove si trovano le norme nell’ordinamento
Differenza tra fonti di produzione del diritto e fonti di cognizione del diritto
-
Produzione = norme che spiegano come si formano e che valore hanno gli atti legislativi, e che
valore hanno all’interno del diritto
Gli atti legislativi dell’UE sono fonti secondarie  ci spiegano
-
Cognizione = fonti che disciplinano la gazzetta ufficiale, che è il luogo in cui cerchiamo le fonti
(articolo 12 delle preleggi = quali sono le fonti del diritto in nostro ordinamento)
Oggi questo articolo non rispecchia più adeguatamente le fonti del diritto, le fonti del diritto non sono più
tutte nucleate in questo articolo
Come le nuove tecnologie hanno impattato sulle fonti del diritto.
Partendo dal modello delle fonti del diritto medioevale  esso si caratterizza per un principio di
personalità del diritto = in un determinato territorio possono essere vigenti più diritti a seconda
dell’appartenenza personale dei soggetti nell’ordinamento in un gruppo sociale
in diritto romano il principio di personalità non c’era = un solo diritto all’interno dell’ordinamento romano
Quando arrivano i barbari, si devono far coesistere diversi ordinamenti:
-
Ai romani si continuava ad applicare il diritto romano
Ai barbari, a secondo delle loro famiglie, si applicano diversi diritti (per avere un diritto uno si deve
aspettare l’editto di Rotari)
La calata dei longobardi (568) in Italia crea una spaccatura territoriale e politica  diritti diversi tra
longobardi e bizantini
L’editto di Rotari (643) = si applicava ai soli longobardi, prima fonte del diritto scritta perché sentono
l’influenza dei romani. Ci tramanda il modello che si avvicina al modello attuale (condotta e certezza della
pena). Ai romani veniva lasciata la propria capacità giuridica
Lo stato medievale si caratterizza dal concorso di più diritti autonomi e concorrenti (società senza Stato) il
diritto nel medioevo si crea dal basso, creando diritti dell’Impero, della Chiesa, dei grandi baroni feudali, dei
comuni ecc.  DIVERSO DA STATO MODERNO = in cui la sovranità è una caratteristica inseparabile,
all’interno dello Stato non si permette il concorso di più diritti autonomi, non si permettono altre forze
generatrici di diritto, l’unica fonte di diritto è il sovrano
Si passa da atomizzazione del diritto a unità
Come si arriva a Westfalia?
-
-
-
La guerra di religione, la forza delle correnti religiose protestanti che concorrono con religione
cattolica di Roma e pretendono il loro spazio (diritto acquisito avevano con la Pace di Augusta =
ogni Stato poteva darsi una propria religione)
fintanto che arriva qualcuno che la pensa diversamente = Federico II era un fervente sostenitore
della controriforma. Ferdinando imperatore (fronte cattolico) contro di lui
Elemento scatenante della guerra dei 30 anni è la DEFENESTRAZIONE DI PRAGA = due governatori
imperiali vengono defenestrati
Guerra che ha 4 fasi diverse, termina solo parecchi anni dopo con:
PACE DI WESTFALIA = pace che segna l’avvio di una politica internazionale, tutte le forze europee si siedono
a trattare
-
Principio di non ingerenza degli Stati nelle questioni interne ad uno Stato
Accettazione del pluralismo confessionale
Laicità dello stato
Separazione di potere spirituale e temporale
Dopo Westfalia c’è un periodo in cui la separazione dei poteri tra Stato e Chiesa saranno al centro del
dibattito filosofico
A Westfalia nasce lo stato moderno
-
Autonomia esterna nei confronti dei poteri universali
Gli ordinamenti particolari possono solo funzionare come emanazione del potere centrale, non
concorrente del potere centrale. Lo stato può delegare dei poteri ai comuni
CRITERIO DELLA TERRITORIALITA’ = si applica il diritto dello Stato in cui vivi, non importa la tua
soggettività, cittadinanza. Nel momento in cui operi in uno stato sei soggetto al diritto di quello
stato.
Questo principio dura tutt’oggi  ma lo stato, con la sua capacità di imporsi, che riassumiamo con la regola
di Kelsen, ha una modalità di applicazione del diritto (gubernaculum = potere esecutivo e legislativo –
iurisdictio = potere di sorvegliare l’applicazione delle leggi e l’operato del gubernaculum) oramai non più
efficace nelle società ICT-dipendenti
Società ICT-dipendenti si caratterizzano per il Kosmos = consuetudine. Nuova importanza di norme che non
derivano direttamente dallo Stato ma da una fonte terza, che è la comunità, che si da le proprie norme in
quei settori in cui lo Stato fa fatica ad arrivare col proprio gubernaculum.
-
Settori che hanno una complessità difficilmente regolabile da uno stato a-tecnico, senza le
competenze necessarie
Caratteristiche dello stato moderno:
1) Politicità
2) Sovranità
3) Uso della forza
Westfalia porta un modello delle fonti in cui gli unici soggetti di diritto sono gli Stati  perché unici
soggetti dotati di sovranità, anche nel sottoscrivere i trattati unilaterali e bilaterali (quindi Stati sono
anche unica fonte del diritto internazionale)
Ordinamento giuridico internazionale non gode di alcuna sovranità giuridica in Westfalia
Il modello attuale è un modello che non si ritrova più nella presenza di un unico soggetto di diritto
come lo Stato
Ammette anzi dei nuovi soggetti di diritto come l’UE  ha sovranità e personalità giuridica
indipendente da quella degli Stati.
Deriva la sua sovranità dagli Stati, ma da essi si distacca e si eleva in importanza (es regolamenti
europei)
Nuovi strumenti di disciplina regolativa  come il soft law
FONTI DI SOCIETA’ ICT-DIPENDENTI
Il sistema delle fonti è dato dall’intrecciarsi di 3 fonti
-
Gubernaculum
Iurisdictio
Kosmos
Su 3 piani differenti
-
Diritto nazionale
Diritto internazionale
Diritto traslazionale
Quest’ultimo piano non sarebbe stato ammesso da Westfalia, visto che sovranità è solo dello Stato  noi
invece ammettiamo una sovranità che prescinde dallo Stato
Ci concentriamo su ciascun livello
- Sul piano nazionale:
- Sul piano del gubernaculum = 2 caratteristiche innovative in modello di società ICT-dipendenti
1) Crescente inefficacia del modello tradizionale di applicazione del diritto, inteso come sistema di
comandi suffragati dalla minaccia di sanzioni (Kelsen “se A allora B”). non è più il modello più
efficace.
Il più efficace è in fase preventiva, non successiva (in fase successiva è troppo tardi, il danno è stato
già fatto). In società odierne si cerca di prevenire la condotta negativa dei cittadini. (es dossi 
fanno rallentare la macchina PRIMA che essa possa violare la norma di Kelsen)
“privacy by design”  tutela dei dati personali deve avvenire ben prima che i dati vengano trattati
2) Emersione di nuovi soggetti giuridici = a livello macro è l’UE, a livello micro sono le piattaforme ICT
che usiamo ogni giorno. Il livello di complessità di certi ambiti fa si che lo Stato arrivi sempre
successivamente
- Sul piano della iurisdictio = c’è un nuovo pluralismo della iurisdictio  se la corte costituzionale
era l’unico organo di iurisdictio, perché assistiamo alla presenza di ulteriori organi, come la corte di
Lussemburgo (corte di giustizia dell’UE) su cui la corte costituzionale non ha diritto di pronunciarsi
- Sul piano del Kosmos = La novità è il soft law = fonti del diritto non vincolanti (in alcuni casi però lo
possono diventare), nessuno è tenuto al loro rispetto, ma di fatto vengono rispettate, perché la
forza della consuetudine è la capacità di produrre effetti giuridici e conformano il comportamento
delle persone (linee guida, raccomandazioni, opinioni)
-
-
Sul piano internazionale:
L’emersione di un nuovo soggetto giuridico  dotato di personalità giuridica a sé stante, distinto
da ordinamento internazionale, avente effetto diretto o indiretto sulle disposizioni legislative dei
suoi Stati membri.
L’UE è in sé fonte del diritto, in quanto le sue fonti entrano a far parte del sistema giuridico di
ciascun Stato membro. Distinguiamo tra
1) Fonti primarie = trattati istitutivi, principi generali del diritto dell’UE, col trattato di Lisbona è
diventata fonte primaria anche la Carta dei diritti fondamentali (conseguenza del tentativo di
darsi una costituzione europea, fallito perché Olanda e Francia non volevano)
2) Fonti secondarie = il diritto secondario è valido solo se conforme ai trattati e agli accordi di
livello superiore. Le fonti secondarie sono i regolamenti, le direttive, le raccomandazioni, i
pareri
Mentre il diritto primario trova fondamento direttamente nei trattati, il diritto secondario trova la sua fonte
nel diritto primario, secondo la scala di Kelsen
Problema = rapporto tra ordinamento nazionale e ordinamento internazionale (UE). Se Westfalia ci dice che
l’unico soggetto di diritto è lo Stato, come si accoglie un nuovo soggetto di diritto sui generis come L’UE?
-
Non ci si arriva in modo pacifico  c’è stata una dialettica dal 63 in poi tra Stati nazionali e UE per
chiarire questo rapporto (ad esempio la corte costituzionale polacca ha messo pochi giorni fa in
discussione il potere delle istituzioni europee di essere fonte del diritto per lo Stato nazionale, cosa
che l’Italia ha fatto 40 anni fa)
DIBATTITO TRA TESI MONISTA (esistenza di un unico ordinamento che faceva ingresso in quello
nazionale ponendosi come fonte sopraelevata) DELLA CORTE DI GIUSTIZIA UE E TESI DUALISTA DI
CORTE COSTITUZIONALE ITALIANA E EUROPEA
Quali sono le norme costituzionali che configurano la quota di accesso del diritto europeo nel diritto
nazionale?
-
Articolo 10 della costituzione
Articolo 11 della costituzione
Questi due articoli non dicono nulla sul rapporto tra i due ordinamenti
Dialettica prosegue con sentenza Costa vs Enel (1964)
Quando più fonti del diritto si trovano a concorrere tra loro occorre risolvere le ANTINOMIE = ipotesi di
conflitto tra norme, e quale tra queste prevalga
Nel nostro ordinamento ci sono diversi criteri per risolvere le antinomie:
-
-
Bisogna considerare il livello gerarchico della fonte (fonte di grado costituzionale > fonte di grado
primario > fonte di grado secondario)
Se il livello gerarchico è il medesimo (es due fonti primarie) i criteri che soccorrono sono il criterio
cronologico e può anche soccorrere il criterio di lex generalis lex specialis
Se si hanno fonti di ordinamenti differenti = corte di giustizia dichiara il primato delle fonti europee
(sentenza Costa vs Enel)
UE aveva obiettivo di creare un mercato unico  se uno stato avesse avuto la possibilità di dettare regole
diverse da quelle europee sul mercato cadrebbe l’idea del mercato unico europeo
La corte costituzionale Italiana non accetta il primato delle fonti europee su quelle italiane = la fonte
primaria europea da cui deriva una legge viene valutata, in caso di antinomia con fonte primaria italiana,
segue il criterio temporale (lex posterior).
Caso Simmenthal (anni 70)
Un punto di fine lo da la corte costituzionale con la sentenza Granital (1984) = corte abbandona la tesi
dell’incostituzionalità della norma comunitaria contraria alla norma italiana successiva. Dice che quando c’è
un’irriducibile incomparabilità tra norma europea e norma italiana, prevale sempre la prima (abbandono
principio lex posterior).
Se c’è una norma interna emanata prima, e arriva la norma europea, la norma italiana precedente viene
abrogata = la norma successiva di ordinamento differente la pone nel nulla.
Tale effetto caducatorio è anche retroattivo  quella norma italiana è come se non esistesse più
nell’ordinamento.
DIVERSA è la situazione data nel caso in cui la disposizione della legge interna emanata dopo confligga con
norma comunitaria. La corte costituzionale deve stabilire illegittimità della norma interna posteriore per
conflitto con l’articolo 11. Un giudice non può far altro che disapplicare quella norma interna successiva,
ma dal punto di vista delle fonti del diritto la norma rimane vigente fino a che non intervenga la corte
costituzionale.
SI ARRIVA A OBIETTIVO DI CORTE DI GIUSTIZIA MA RIMANE DUALISMO DELL’ORDINAMENTO PERCHE’ è LA
CORTE COSTITUZIONALE AD AVERE L’ULTIMA PAROLA
COSA MANCA ALL’INTERNO DI DIALETTICA TRA ORDINAMENTI? Sia che si accetti la tesi monista, sia che si
accetti la tesi dualista  nessuno dei due modelli permette di giustificare la terza forma  KOSMOS
Nessuno spazio per il Kosmos in entrambe le tesi
L’unico modello che permette di ravvisare la presenza del Kosmos è il riconoscimento di un diritto che non
è più solo nazionale o internazionale  un nuovo livello delle fonti del diritto dato da:
DIRITTO TRASNAZIONALE = include la lex mercatoria nel sistema giuridico
-
Lex mercatoria = legge non scritta che i mercanti si davano per il buon andamento delle transazioni
commerciali  primo esempio di legge che varcava i confini nazionali, primo esempio di una
comunità (mercantile) che non è più rappresentata dalle norme nazionali e si vede costretta a darsi
delle norme che promanano dalla comunità di mercati, il cui funzionamento dipende dal fatto che
TUTTI I MERCATI SIANO CONCORDI NELL’APPLICARE QUELLE DETERMINATE NORME
MODELLO CHE DERIVA DA MEDIOEVO E TORNA NELLE SOCIETA’ ICT-DIPENDENTI
In società odierne abbiamo esigenza di darci regole per il funzionamento del mercato che lo Stato arriva
troppo tardi a dare o non è in grado di dare per la complessità del funzionamento
Jessup 1956 = diritto che regola azioni o eventi che trascendono le frontiere nazionali. Incluso il diritto
pubblico e privato internazionale = l’inefficacia delle norme nazionali si è vista nei problemi di giurisdizione
 chi ha il potere di esercitare la iurisdictio quando il fatto coinvolge soggetti che vengono da Stati
differenti?
L’autorità di cui godono questi ordinamenti transnazionali non proviene da un contratto sociale o da una
grundnorm  trae la propria autorità dall’accordo delle comunità che quelle regole siano appropriate a
disciplinare le loro transazioni
Risultato = coloro i quali scelgono di diventare membri della comunità in questione sottomettono se stessi,
attraverso la loro scelta, all’autorità delle regole transnazionali che governano la comunità
La forza normativa delle norme di diritto transnazionale deriva dunque dalla sottomissione volontaria dei
partecipanti a questo sistema di norma
Le regole dell’internet sono regole transnazionali = i Paesi hanno deciso di sottostare tutti assieme alle
regole poste da un’organizzazione terza a carattere transnazionale, che originariamente nasce come
organizzazione di diritto privato americana (ICANN), che gli stati decidono di rispettare
COME SI è RICONOSCIUTO IL LIVELLO DI FONTI DI DIRITTO TRANSNAZIONALE  terzo incomodo rispetto a
livello nazionale e internazionale?
-
Tesi negazioniste = non c’è bisogno di regole transnazionali, che peraltro portano a regole inefficaci
nell’ordinamento interno
-
Tesi del “diritto oltre lo Stato” = individuazione di un rapporto tra diritto nazionale e transnazionale
(simile al dualismo diritto interno ed europeo). Oltre lo Stato le persone preferiscono seguire le
consuetudini su certi argomenti sui quali lo Stato non ha la preparazione necessaria per legiferare
Es: riscaldamento globale, gli scienziati dicono che la prospettiva è drammatica  il diritto transnazionale
sta nella comunità transnazionale che si dà delle regole per cercare di evitare la prospettiva poco felice
intervenendo dove gli Stati sovrani non arrivano (per arrivare agli accordi come Tokyo e Parigi ci vuole una
gran fatica, perché gli Stati hanno interessi personali e non vogliono rinunciare alle loro fonti di energia e
ricchezza).
Capacità del diritto transnazionale a sopperire alle mancanze del diritto nazionale  esso è in genere un
diritto “soft law” = il legislatore, conscio della complessità di ciò che si mira a governare, delega alla
società civile il compito di provvedere a riguardo  mette in crisi il sistema Hobbesiano della differenza
tra “comando” e “consiglio” 
Se Hobbes non vedeva via d’uscita da questa dicotomia = oggi c’è l’idea che il diritto consista soltanto in
uno strumento di controllo sociale
Il concetto di soft law si fa strada nella letteratura giuridica negli anni 70. La critica era che soft law aveva
una contraddizione interna  se è privo di effetti legali, non vincolante, come fa ad essere law? Invece si fa
largo per la prima volta l’idea che non sia necessaria la vincolatività per essere diritto, è sufficiente
l’efficacia giuridica nell’ordinamento. Il fatto di dare consigli e raccomandazioni porta la comunità, anche
senza minaccia di sanzione, a conformarsi
ATTENUATA COERCIBILITA’ = perché la legge può includere il soft law portandolo ad essere hard law 
grande potenza dei codici di condotta = il legislatore da regole generali su qualcosa, ma poi siano i vari
settori a darsi delle regole specifiche che valgano solo per quei settori, ovvero i codici di condotta che a loro
volta essendo richiamati dalla normativa nazionale, diventano fonti di attuazione della normativa nazionale
e quindi possono diventare coercibili
Anche su natura giuridica dei codici di condotta l’ordinamento si è interrogato molto:
-
Si è partiti con teoria bipartita = il codice di condotta arricchisce l’ordinamento nazionale ma è altro
rispetto ad esso
Superamento di questa teoria con teoria di unicità dell’ordinamento giuridico = codici di condotta si
trasformano in vere e proprie fonti secondarie di diritto “erga omnes”
Esempio di ciò è legge 675 del 1996, basata dalla direttiva 95/46 = prima legge organica sulla tutela dei dati
personali
SERVE UNA DIRETTIVA (fonte primaria)SULLA QUALE VIENE BASATA L’EMANAZIONE DI UNA LEGGE
L’autoregolamentazione consente la creazione di un complesso di norme giuridiche che divengono legge
ordinaria dello Stato.
Fonte primaria che incoraggia l’azione dei codici di condotta e dice che il rispetto dei codici di condotta
divengono condizione essenziale per la liceità e correttezza del trattamento dei dati personali (soft law
diviene tutt’uno col diritto dello stato, hard law)
Ciò avviene anche nella comunicazione pubblicitaria  direttiva nazionale dice che i controlli volontari
degli organismi autonomi per eliminare la pubblicità ingannevole possono evitare azioni giudiziari e quindi
devono essere incoraggiati
-
Tesi del “diritto senza lo Stato” =
CAPITOLO 3 DEL LIBRO DI DURANTE
Intelligenza umana e artificiale
-
Hayek = primo esempio di studioso dell’intelligenza umana che abbiamo trattato all’inizio del corso
Intelligenza artificiale = formula viene inventata nel 1956, in un celeberrimo congresso da John McArtis
Si prometteva la luna per attirare fondi
Negli anni 70 ci fu un contraccolpo  l’inverno dell’intelligenza artificiale, l’interesse per questo settore e i
finanziamenti entrarono in crisi
Negli anni 80 ci fu la seconda crisi
Da quando siamo nati c’è stato un ritorno alla grande dell’intelligenza artificiale
Non c’è un’unica definizione di intelligenza artificiale, ma 4:
-
Costruzione di sistemi che o pensino o agiscano razionalmente
Costruzione di sistemi che o pensino o agiscano come fanno gli uomini
Cos’è l’intelligenza? Turing non usa mai l’espressione intelligenza artificiale perché morto prima, ma in un
celeberrimo scritto del 1950 Turing affronta il problema su come determinare se una macchina può
definirsi intelligente
TEST DI TURING = formula pragmatica, il test consisteva nel nostro interagire con un interlocutore rispetto
al quale siamo separati da un muro (non possiamo sapere chi sta dicendo cosa)
-
Si comincia a porre domande e ricevere risposte, se ad un certo punto non possiamo più stabilire se
l’ente è una macchina o un essere umano, la macchina ha superato il test
Fino ad oggi, nessuna macchina ha superato il test di Turing
Il progetto iniziale di creare un’intelligenza artificiale generale, a questo si è affiancato un approccio più
realistico di intelligenza artificiale debole = non un sistema intelligente come l’uomo ma sufficientemente
intelligenti da risolvere dei problemi che sono al di fuori della nostra portata per la potenza di calcolo
[IJCAI = convegno sull’intelligenza artificiale]
Cosa è successo in questi ultimi 15 anni nel campo dell’intelligenza artificiale?
Legge di Moore = profezia che si è autoavverata, uno dei fondatori di Intel, colosso dei microprocessori, il
quale 60 anni fa stabilì che la potenza di calcolo delle macchine sarebbe raddoppiata ogni 18 mesi
Due voci contrastanti
-
Tesi di weinberg = all’inizio dell’esplosione del web riteneva che queste tecnologie avrebbero avuto
un impatto positivo su di noi
Tesi di Carl = insiste sul fatto di come le tecnologie digitali siano devastanti per l’intelligenza umana,
ci stiano abbrutendo
Per i prof divaricano la forbice tra gli intelligenti e gli stupidi
LEZIONE CON AURUCCI SU MEMORIA E OBLIO
Sentenza Google Spain
Ciò che cambia con la società moderna è che noi abbiamo una quantità di dati enorme prodotta in tempo
reale che ci permettono di codificare un sistema  e dopo averlo capito si può controllare e influenzare
Tutti i dati che produciamo con l’interazione con Internet lasciano tracce digitali che possono essere
sfruttate per capire quali siano i nostri orientamenti e predire i nostri comportamenti
Con la rivoluzione dell’informazione non si riesce più a esercitare controllo su dati personali  sfiducia del
singolo nel condividere i dati nel digitale
Se non si producono dati non si produce neanche business
NUOVO REGOLAMENTO SU PROTEZIONE DATI:
-
Riconosce che il vecchio consenso informato non basta
Vuole garantire di nuovo il controllo sui dati personali, garantendo nuovi diritti e
responsabilizzando coloro che trattano questi dati. Inasprisce le conseguenze per uso abusivo del
trattamento dei dati
Qual è il più grande titolare del trattamento dei dati personali al mondo? GOOGLE
La Corte europea affida l’amministrazione e la gestione del diritto all’oblio (delicato bilanciamento tra
diritto alla privacy e libertà di cronaca e informazione) proprio a Google
Ciò si è trasformato in conferire un enorme potere e ruolo della governance del digitale a Google

-
Quali sono le caratteristiche della governance del digitale?
Ci sono molti attori che entrano nel governo di internet
Ruoli di autonomo governo di internet
C’è bisogno di bilanciamento tra gli interessi contrastanti
Chi ha commesso un crimine, una volta l’info era pubblicata solo sul giornale e tv, ora l’info è sempre
presente, non c’è modo di staccare il proprio nome da quello che è il passato, sia nella vita reale che online.
MEMORIA = processo cognitivo fondamentale sia a livello individuale e collettivo, ci permette di imparare e
relazionarci con gli altri
“senza memoria non saremmo in grado di leggere, parlare, riconoscere gli oggetti” (MEMENTO film)
OBLIO = altrettanto importante, ci permette di andare avanti e programmare la propria vita
Noi siamo ciò che ricordiamo e ciò che dimentichiamo
La dialettica tra memoria e oblio coopera nella costruzione della nostra identità, definiscono chi siamo ed è
indispensabile per la formazione e conservazione del sapere
La dialettica si diversifica nelle varie epoche, è influenzata dallo sviluppo tecnologico, e la capacità di questa
dialettica di tracciare i confini di chi siamo ha fin ora rispettato una regola fondamentale
È MOLTO PIU’ FACILE DIMENTICARE ED È PIU’ DIFFICILE RICORDARE
Nell’epoca attuale, in cui tutto viene raccolto e registrato, QUESTA REGOLA È INVERTITA
Nell’interazione lasciamo impronte digitali sottoforma di dati (traccia dei dati che abbiamo lasciato) e
metadati (traccia delle tracce che abbiamo lasciato)
Integrare tutti questi dati su di noi ci permette di decodificare qualcosa. Una tessera fidelity card vengono
registrati tutti gli acquisti, contano certi dati su cui sviluppare un algoritmo che permette di dire quali
saranno gli acquisti futuri. Lo stesso vale per la medicina
Esempio: messaggistica WhatsApp = con la crittografia end-to-end l’app dice che rispetta la riservatezza,
ma il messaggio crea un sacco di metadati, che non sono protetti ma accessibili al titolare dei dati, che
sono molto più interessanti del contenuto del messaggio in sé
I primi casi riguardano casi di cronaca nera che venivano riproposti a distanza di tempo
Antefatto del diritto all’oblio c’è stato a livello italiano
Sentenza di Roma del 1996 = diritto trova fondamento nell’articolo 2 della costituzione, peculiare rispetto
al diritto alla riservatezza, perché è volto ad impedire che fatti già resi di dominio pubblico possano essere
rievocati nuovamente, che proiettava l’individuo in fama non voluta senza il suo consenso
La Cassazione ribalta nel 1998 = tale interesse non è strettamente collegato all’attualità del fatto ma
permane finché sia attuale sotto il profilo pubblico. Si collega alla riservatezza, si ha il diritto a non venire
rappresentati con un’immagine non più attuale e il fatto di venire continuamente ricordata questa notizia
arreca danno alla reputazione che nel tempo è cambiata, continuo presente
In una realtà in cui le notizie sono perennemente presenti questo reca un danno alla reputazione
In questa sentenza italiana il diritto all’oblio viene visto come bilanciamento di due interessi
-
Del singolo a controllare la propria identità informazionale
Della collettività dell’accesso all’informazione e diritto di cronaca
SENTENZA GOOGLE SPAIN = sentenza che rivoluzionò i rapporti di potere tra i vari attori della governance
digitale, conferendo un enorme potere involontariamente a Google
-
Avvocato Mario Gonzalez = voleva essere dimenticato relativamente a due annunci del 1998
pubblicati sull’avanguardia e anche online e si parlava di pignoramento di immobili di Gonzales per
un debito che non era stato pagato
-
Scrivendo il suo nome su Google la prima informazione che usciva era proprio questo articolo di
giornale
-
Mario va dall’editore (webmaster) = dice che il suo nome rimaneva inevitabilmente collegato a
quella vicenda, che creava danni professionali e sociali sulla sua reputazione. Immagine falsata della
realtà attuale di Mario  chiede cancellazione del link
-
L’editore non da riscontro sulla cancellazione
-
Allora Mario va da Google = chiede deindicizzazione, ovvero dissociare un nome da un risultato
della ricerca sul motore di ricerca  il link incriminato continua ad esistere, utilizzando una nuova
chiave di ricerca o accedendo direttamente al link del giornale, Google ha solo oscurato
-
Nel 2010 il signor Gonzalez fa un richiamo all’autorità garante spagnola sia contro l’editore che
contro Google Spain
-
Si arriva alla CORTE DI GIUSTIZIA UE  sentenza nel 2014 accoglie le ragioni di Gonzalez e
riconosce per la prima volta il diritto all’oblio, inteso come bilanciamento di diritti e interessi
diversi, riconosciuto all’interno del GDPR
COSA STABILISCE SENTENZA? Quali sono le tracce digitali che rimangono e quali devono essere cancellate
 conseguenza è il potere di controllare cosa si conosce e cose no
Questo potere in un mondo democratico non dovrebbe essere delegato ad un unico soggetto, soprattutto
se questo soggetto è un’azienda privata
Le conseguenze sottolineano quanto sia necessario garantire un giusto bilanciamento tra le competenze e i
ruoli e non delegare tutto ad un soggetto
La Corte di Giustizia
Quali sono gli interessi contrapporti?
-
Interesse del singolo a controllare la propria identità informazionale
Interesse della collettività alla libera circolazione delle informazioni
Interesse del sito online che diffonde informazioni
Interesse di Google, il cui modello di business sta proprio nell’indicizzare le notizie e consentire
l’accesso alle stesse
I servizi online sembrano gratis ma in realtà si paga consentendo l’accesso ai propri dati e metadati
Esempio: tra dati anonimi di sequenze genetiche di un’etnia, si può fare uno studio per capire se questa
etnia è suscettibile ad una determinata malattia  visto che la genetica cambia da un’etnia all’altra, con
questo studio si può stabilire che un membro di quella etnia che non ha voluto partecipare a questo studio
sia suscettibile di una determinata malattia
Il GDPR mette una pezza, non risolve del tutto questo problema  se si fa uno studio per vedere se dei
tratti somatici hanno correlazione con suscettibilità ad un determinato orientamento sessuale, è lecita ma
dovrebbe essere bloccata prima perché immorale e mette a rischio di discriminazione
Ciò va trasposto a Google e l’internet
La legge da sola non basta, c’è bisogno di altre garanzie di vero bilanciamento di interessi
Nella sentenza Google Spain ci sono vari interessi  come viene risolta contrapposizione di interessi?
1) Documento di WP29 = il working party era un organo previsto dalla vecchia direttiva del 1995 ed
era un gruppo costituito dai garanti europei a cui era affidato il compito interpretativo della legge
(che non è vincolante) [l’unica interpretazione vincolante è quella della Corte di Giustizia]
“Linee guida sull’applicazione della sentenza” = Prevede che l’indicizzazione sia un trattamento dei dati
personali, il motore di ricerca è il titolare dei trattamenti, a lui si applica la direttiva che disciplina i dati
personali, è responsabile per il trattamento dei dati
I garanti possono obbligare i motori di ricerca alla deindicizzazione, ma il soggetto che voglia la
deindicizzazione (a partire dal nome della persona si devono cancellare i link che sono oggetto del ricorso)
Fin ora Google si era sempre definito un provider, non responsabile del trattamento dei dati personali, ora
non più, è responsabile del diritto all’oblio, che si traduce in diritto alla deindicizzazione
“i diritti della persona interessata prevalgono di norma sugli interessi del motore di ricerca e del pubblico di
accedere all’informazione”
L’esempio è il revenge porn = l’interesse del soggetto che vengano cancellati è più importante di qualsiasi
altro interesse, riguarda la sfera privata di un individuo
“tuttavia urge operare un bilanciamento dei vari interessi; l’interesse del pubblico sarà maggiore qualora
l’interessato svolga una funzione pubblica”
L’esempio è l’intercettazione di un funzionario pubblico, come un politico = non si tratta di informazioni
private su un individuo ma di informazioni di un uomo che ricopre una carica pubblica, dunque interessa la
comunità
WP29 = dice di non preoccuparsi perché la deindicizzazione avrà impatti limitati sui diritti delle persone, il
garante europeo farà quest’attività di bilanciamento, dunque se l’interesse collettivo è così forte ad
accedere a informazione essa sarà accessibile
IL BILANCIAMENTO PERO’ VIENE FATTO DA GOOGLE
Il diritto di cancellazione si applica esclusivamente sul nome  l’informazione originale rimarrà accessibile
con altre chiavi di ricerca o accedendo nel sito del fornitore
Perché non c’è la cancellazione totale del link? Perché così facendo si da una parvenza di bilanciamento tra
gli interessi
La memoria ci è utile e c’è l’interesse generale che permane, non viene eliminato, ma c’è sempre il
problema tecnico  rimuovere un dato dalla rete è un’operazione lenta e costosa
Il diritto sta a metà strada tra due interessi contrapposti
Nelle linee guida WP39 si dice anche che non c’è l’obbligo dell’interessato di rivolgersi al sito  BASTA
ANDARE DA GOOGLE
Non c’è bisogno di andare in qualche tribunale o corte, basta chiedere a Google la deindicizzazione
Non si instaura alcuna contrapposizione tra le parti (soggetto e webmaster)
Si sta configurando un monopolio di Google nella gestione di questo diritto:
-
Non c’è terzo imparziale
Non si deve convocare webmaster
Qual è l’impatto di decisione della Corte?
-
L’intento era garantire al soggetto un controllo su quello che viene ricordato e cancellato di lui,
sulla rete. La finalità era rinsaldare il rapporto di fiducia tra gli utenti online e la Rete, poiché la
mancanza di fiducia frena il consumatore dall’acquistare online e blocca lo sviluppo economico e il
progresso
La Corte dunque obbliga la dissociazione dei loro nomi dai risultati della ricerca, consapevolezza del
soggetto di aver riottenuto il controllo sui propri dati e si traduce in fiducia e continua a far circolare i dati
online
La legge non basta per garantire la fiducia, ci vogliono altre garanzie, come l’accountability e la sicurezza di
poter esercitare un’azione nei confronti di chi tratta in modo abusivo i dati personali
-
= in Europa la maggior parte delle ricerche viene fatta tramite
Google, esso dunque ha un vero e proprio monopolio di questo diritto
Google diventa giudice di prima istanza e anche di ultima nell’applicazione e interpretazione del
diritto all’oblio
Studi dimostrano che il 56% delle richieste vengono rifiutate, e il soggetto non ripropone la
richiesta di diritto all’oblio alla corte o al garante
Google ha il poter di ritagliare i ricordi della memoria e dell’oblio, incide sulla produzione della
conoscenza
Google era considerato in una migliore posizione tecnica ed economica a risolvere il problema, aveva
risorse più efficienti, ovvero una struttura organizzata sul territorio, degli uffici
La disciplina è fortemente frammentata in Europa e ciò avrebbe impedito l’uniformità nelle decisioni,
violando il principio della certezza del diritto
I motivi di censura conseguiti a questa decisione sono diversi:
1) Si è garantita l’amministrazione privata di un diritto pubblico
Google non solo azienda privata ma anche struttura di governance
Un conto è ampliare il settore della governance ad enti prima non inclusi, un altro è delegare totalmente ad
un ente privato il ruolo di definire i delicati equilibri istituzionali e sociali, oltre che la gestione e
l’interpretazione di un diritto.
2) Segmentazione del mercato delle informazioni
In una società come quella attuale, noi stiamo creando delle differenziazioni; la decisione della Corte
produce un’ingiustificata differenziazione nell’accesso ai dati
Ora per accedere all’info di Gonzales ci si deve abbonare al giornale, o trovare il link preciso, e ciò richiede
uno sforzo di tempo e a volte anche economico  DIFFERENZIAZIONE ALL’ACCESSO ALL’INFORMAZIONE
Tra l’altro pariamo di un colosso come Google, ma un motore di ricerca più piccolo non riesce a gestire un
nuovo diritto  DOPPIA DIFFERENZIAZIONE delle aziende che vogliono accedere al mercato
3) Il contrasto con le regole di diritto da un punto di vista procedurale
Benché il bilanciamento di Google non è per forza molto diverso da quello operato dalle corti nazionali, MA
pone dei problemi procedurali (procedura = meccanismo in cui tutti gli attori in gioco sono o meno
coinvolti):
-
Non si crea contraddittorio tra le parti
Spesso non vengono coinvolti tutti gli attori in gioco
il diritto all’oblio è davvero difficile da far valere  esempio di Tiziana Cantone
si scontra con la realtà dell’ecosistema che gira attorno ai dati digitali, nel contesto dei big data, i dati
vengono continuamente utilizzati  è difficilissimo bloccare qualcosa che è diventato virale
le tre criticità sono considerate le principali conseguenze negative di una decisione che voleva avere
tutt’altro effetto
PARADOSSO DELL’OBLIO = la decisione della Corte ha creato delle storture, non riguardano solo dal diritto
all’oblio, ma la gestione del sapere
-
Tutto parte da un report “three years of the right to be forgotten” scritto da affiliati di Google = ha
analizzato le richieste di tre anni di deindicizzazione  Google ha a disposizione ora un enorme
database costantemente aggiornato relativo al modo in cui i cittadini europei esercitano il diritto
all’oblio
Da questo database si può creare conoscenza che per privacy non può essere divulgata
Il dato non ha oggettività, per fare una corretta interpretazione del dato e quindi produzione di conoscenza
servono i metadati (informazioni sui dati)
In questo caso c’è un’enorme banca dati e di metadati relativa alle richieste fatte di deindicizzazione
Quando si ha un’immagine digitale della realtà si può sfruttare questa immagine per studiare in generale
come funziona il sistema, se si decodifica il sistema si può controllarlo e condizionarlo, prevederlo e quindi
agire di conseguenza, influenzarlo.
SE CAPISCO COME FUNZIONA IL MECCANISMO DI UNA MALATTIA POSSO INTERROMPERLA
DALL’ANALISI DI QUESTI DATI SI PUO’ RICAVARE COME SI FORMA LA NOSTRA SENSIBILITA’ ALLA
PROTEZIONE DEI DATI, E QUANTO QUESTA INFLUENZI L’ACCESSO ALL’INFORMAZIONE
Google registra cosa vogliamo dimenticare (dati) e come e quando vogliamo farlo (metadati)  richieste
dell’oblio sono alla base di nuova conoscenza, sarà possibile prevedere cosa vogliamo ricordare e cose
vogliamo dimenticare. Se lo capiamo possiamo condizionarlo
Studiare qual è il meccanismo che ci porta in un determinato momento nel tempo a voler cancellare
qualcosa è di tutto interesse a Google per creare un modello da condizionare e in cui interferire
Dunque oltre a dare incredibile potere decisionale a Google si da anche un potere del sapere,
sostanzialmente noi non sappiamo neanche cosa sta facendo Google con questi dati, perché per tutelare
la riservatezza del singolo non si può condividere col pubblico le conoscenze che derivano dalla
conoscenza di questi dati
CAPITOLO 5 DEL LIBRO DI DURANTE
Perché ci concentriamo su nozioni di dato, informazione e conoscenza?
-
Primo ordine di ragioni è connesso alla rilevanza della rivoluzione digitale  diventare giuristi nel
contesto storico in cui siamo calati non si può prescindere da rivoluzione digitale
Secondo ordine di ragioni è connesso al fatto che molti giuristi si trovano di fronte argomenti
prettamente tecnologici
Le nozioni che identifichiamo oggi sono definizioni operative, alla luce sul perché le studiamo, il nostro
obiettivo non è indagare le varie differenti correnti di pensiero, ma è acquisire delle definizioni e nozioni da
un punto di vista operativo  ci servono per comprendere determinati aspetti
Notizia di oggi: La corte di giustizia dell’unione europea ha respinto un ricorso realizzato da Google 
realizzato sulla base di una sentenza del 2017 in cui veniva fatta una multa a Google per abuso della sua
posizione dominante
Luciano Floridi = all’inizio del libro del professor Durante, la tesi implicita del libro del professor Floridi viene
esplicitata da Durante, quindi si fa riferimento a Floridi anche per le nozioni
Ci possono essere molte definizioni di dato:
-
Definizione diaforica, basata sulla differenza = se abbiamo una lavagna bianca, un punto è un
segno di discontinuità, ed è un dato  elemento che distingue lo spazio caratterizzato da
uniformità a quell’altro spazio, dove viene segnalata una differenza
Come si può percepire mancanza di conformità?
1) Diaphora de re = differenza che percepiamo all’interno del mondo reale. Esempio se c’è silenzio
(spazio con uniformità) e un suono interrompe  dato connesso al mondo reale
2) Diaphora de signo = differenza percepibile con un segno. Esempio il passaggio di stati fisici, come la
differenza tra trattino e punto nell’alfabeto morse
3) Diaphora de dicto = differenza percepibile tra due simboli. Esempio è l’alfabeto, o il semaforo; se
consideriamo il semaforo senza ricollegare ad esso alcun tipo di significato ma solo come una luce
verde e gialla e rossa
Due categorie di dati:
-
-
METADATI = dati sui dati, ovvero dati che descrivono e dicono qualcosa su un altro dato, un
esempio è l’ora di invio di un messaggio, mentre il contenuto di questi messaggi è un dato, le
informazioni “di contorno” sono i metadati
DATI DERIVATI = esempio è la carta di credito, se la si usa per un acquisto, il dato derivato è che in
quella determinata ora, stavo comprando un determinato bene macro tema di discussione
connesso al diritto alla privacy e i pagamenti online
DIFFERENZA TRA I DUE = da un punto di vista umano, anche il fatto che si manda quel messaggio può
essere considerato un dato derivato, ma dall’ottica delle macchine c’è differenza
A livello di dati, abbiamo a che fare con puri dati, se si attribuiscono dei significati si è già nell’ambito
dell’informazione
Livello di astrazione scelto come interfaccia per studiare un determinato fenomeno = il semaforo
attribuisce un significato e passa da essere un puro dato a portatore di significato semantico
INFORMAZIONE = DATI + SIGNIFICATO
Molteplici definizioni anche di informazione
-
Informazione di tipo semantico = la più intuitivamente percepibile, basata sulle componenti che
caratterizzano l’informazione (dato e significato, che è l’apporto semantico)
L’informazione è una serie di dati che devono essere ben costruiti e un significato attribuito a questi dati da
un punto di vista semantico
La datità del dato è il passaggio da uno stato di uniformità ad uno stato di interruzione dell’uniformità
Per comprendere come dalla datità del dato si giunge ad avere un’informazione
Cosa si intende per conoscenza?
CONOSCENZA = a prima vista si può definire come stratificazione delle informazioni, è davvero sufficiente?
Floridi dice di no, perché per comprendere abbiamo bisogno di porci delle specifiche domande, è più
rilevante la domanda che mi pongo rispetto alla risposta, perché essa sta nei limiti della domanda, quindi
dipende dal soggetto che intraprende un’impresa conoscitiva intuire la domanda giusta, motivo per cui la
conoscenza è identificabile con una trama di domande e di risposte
Esempio: tesi di laurea, si intraprende un’impresa conoscitiva  il primo passaggio è la research question,
da cui parte tutta l’indagine, si identifica una specifica domanda. Secondo passaggio è acquisire le
informazioni semantiche, ma dopo di che l’identificazione dei legami tra le varie informazioni, le risposte
alla domanda perché è la conoscenza
Fin ora abbiamo parlato di sintassi in relazione alla struttura dei dati
MOTORE SINTATTICO per eccellenza sono le macchine, ICT. Anche gli esseri umani sono motori sintattici ma
meno efficienti dei primi
Il potere computazionale, da un punto di vista prettamente tecnico, è la capacità di calcolo, di elaborare i
dati, ovviamente le macchine sono nettamente più brave di noi esseri umani
Il potere computazionale, poiché possiede una natura inferenziale e predittiva, è sicuramente un potere dal
considerevole impatto economico
-
Inferenziale = meccanismo di logica per cui da un enunciato giungo ad un altro enunciato, alla base
del potere computazionale delle macchine  deduzione
Predittiva = meccanismo di predizione, per cui le macchine sanno prima di noi di cosa avremo
bisogno, che si collega alla manipolazione; esempio è che se compro il libro di Durante mi viene
automaticamente consigliato il libro di Pagallo. Altro esempio è il paradosso del diritto all’oblio, con
database su deindicizzazione
Concetto della nuova sorveglianza (passaggio da privacy a data protection, se c’è uno Stato che
contiene molti dati su di me, la corte costituzionale tedesca nel 1983 identifica il principio
dell’autodeterminazione informazionale = un cittadino deve sapere quali parti dello Stato hanno
quali dati su di me)
Quali tecniche di manipolazione? Price discrimination (un determinato motore di ricerca propone prezzi
differenzi perché sa quanto io sia disposta a pagare, elaborando dei dati), fake news (Brexit), filter bubble
(se fautore del referendum contro le magliette bianche, io probabilmente tenderò ad allontanare idee
differenti, quindi mi verranno forniti contenuti inerenti al mio punto di vista, così che non si abbia l’effettiva
visione della realtà ma di una porzione piccolissima)
Due tendenze vengono identificate:
-
-
Appiattimento sul piano sintattico = concetto che deriva da teoria di Floridi, abbiamo delle
macchine che sanno fare tante cose a livello sintattico, tendenza di favorire il più possibile
l’ambiente a questo tipo di lavori  esempio è relativo alle canzoni consigliate, ci vengono
proposte anche in relazione agli stati umorali, l’algoritmo non è in grado di provare quell’emozione
ma
Computazione basata sull’umano = efficienti motori sintattici, a volte si trovano di fronte a delle
sfide che non possono essere superate con appiattimento sul piano semantico, è necessario che
venga integrato al motore sintattico un motore semantico; l’uomo. In questo modo aiutiamo la
macchina a imparare. Esempio è test di identificazione se si è un uomo o una macchina
Problema epistemologico dei big data = abbiamo questa enorme mole di dati, aggiornati e colti da sensori
in tempo diretto. Il problema è: come si estrae conoscenza da quell’enorme mole di dati? Floridi sottolinea
come l’identificazione della soluzione non sia a livello tecnologico, ma nell’individuazione di strutture di
piccola scala, che ci permettono di rilevare i dati davvero utili (dati ciechi e dati pieni di vista)
L’enorme potere sintattico comporta una redistribuzione del potere
MOTORI SEMANTICI = ad oggi l’intelligenza semantica caratterizza gli esseri umani.
Semantico = dati ben strutturati dotati di significati
Nozione di capitale semantico sviluppata da Floridi = qualsiasi contenuto in grado di incrementare il potere
di ciascuno di noi di attribuire significato e dare senso a qualcosa. Tutto questo insieme di ricchezze noi
come esseri umani li trasmettiamo e conosciamo.
Come si sviluppa il capitale semantico?
1) attribuzione di significato
2) Inquadrarlo in un piano maggiore (senso)
3) Riflessività, ovvero risemanticizzare quel processo posto in essere (elemento distintivo del capitale
semantico)
Rischi connessi al capitale semantico:
-
Può essere perso
Può essere improduttivo
Può essere sottoutilizzato
Può essere mal impiegato
Può essere svalutato nel tempo
Ce ne preoccupiamo perché ad oggi il capitale è elaborato e conservato dalle ICT, ruolo di mediazione
svolto dalle nuove tecnologie in relazione al capitale semantico, e perché queste ICT non pongono in essere
solo dei compiti che un tempo erano prettamente umani ma propongono una loro propria e autonoma
rappresentazione della realtà, che necessariamente ha un impatto sul capitale semantico
Connesso a Michael Lynch = filosofo statunitense, raggiunge le stesse conclusioni di Floridi
Il presupposto da cui parte Lynch è l’infosfera di Floridi = a livello minimo: l’intero ambiente informazionale
in cui macchine e esseri umani agiscono e interagiscono. A livello massimo: può essere usato come
sinonimo di realtà
Problema della conoscenza: per conoscere si deve disporre di:
-
Credenza corretta (informazioni accurate)
Informazione fondata e giustificata (affidabile)
Dunque questa conoscenza guida le nostre azioni
3 livelli di conoscenza:
1) CONOSCENZA RICETTIVA = l’acquisizione di informazioni più diretta, pezzi di informazione distaccati
tra loro
2) CONOSCENZA ATTIVA = conoscenza mediata attraverso l’esperienza attiva, giustificazione di
affidabilità.
3) COMPRENSIONE = effettiva comprensione, ovvero quella trama di domande e risposte vista prima
All’interno del suo libro, Lynch vuole individuare l’impatto di ICT su questi tre livelli di conoscenza
1) Il primo sembra essere molto ampliato dalle ICT, nell’informazione e disposizione. Questo ha
portato molti a parlare di “democratizzazione” della conoscenza  gli entusiasmi iniziali sono stati
frenati da analisi ulteriori: vero è che è immediatamente disponibile, ma si crea diseguaglianza e
ingiustizia epistemica tra chi ha e chi non ha accesso all’informazione
2) Lynch sostiene che le ICT non abbiano un buon impatto su conoscenza attiva  problema di
coordinazione informativa. C’è il rischio di divenire passivi recettori delle opinioni altrui
3) Lynch sostiene che anche questo livello subisce l’impatto di ICT negativamente. Questa dimensione
che si attiva rischia di essere messa in difficoltà da un sapere mediato attraverso l’utilizzo delle
tecnologie (parte di ciò che è sostenuto da Nicolas Car = mancanza di attenzione, di memoria).
Quella trama di domande e risposte non può essere delegata alle macchine  ONERE DEGLI ESSERI
UMANI
Cos’è la conoscenza scientifica = quel tipo di conoscenza che si basa sul metodo scientifico, che pone un
problema di falsificabilità. Posta in essere dai centri di ricerca, sottoposta ad un meccanismo di controllo
dalla comunità scientifica
L’impatto di ICT sulla conoscenza rende fondamentale soffermarsi su questo tipo di conoscenza
Articolo 27 della dichiarazione universale dei diritti umani = ogni individuo ha il diritto di prendere parte
liberamente alla vita culturale della comunità, di partecipare al progresso scientifico
“RIGHT TO SCIENCE”
Questo diritto ha acquisito molta rilevanza ultimamente, perché il Covid ha fatto si che si richiedesse a gran
voce l’accesso all’informazione scientifica
Come viene permesso quel diritto di accesso ai benefici? I progetti di ricerca vengono condotti e poi
vengono presentati a degli editori di riviste scientifiche che si occupano di porre in essere un processo di
peer review  se quel determinato articolo supera quel processo di revisione della comunità scientifica
allora viene pubblicato
Problema = Springer è editore scientifico di alcune delle più rilevanti riviste scientifiche in ambito giuridico,
noi per accedere ad un articolo del prof Pagallo vent’anni fa dovevamo andare in biblioteca, adesso
possiamo accedere alla banca dati, IN CHE MISURA? Se abbiamo le credenziali di un ateneo, perché
l’università paga ingenti somme per permettere il nostro accesso a quelle determinate banche dati.
Questa situazione è esplosa durante il Covid, in cui tanti individui volevano accedere a del sapere scientifico
molto tecnico  il prezzo di un solo articolo oscilla tra i 70 e i 100 euro
Da una parte articolo 27
Dall’altro l’articolo 11 e 13 della Carta di Nizza = libertà di espressione e manifestazione del pensiero,
libertà accademica
Dunque da qualche decina d’anni è nato un movimento dell’”Open Science” = cambiamento all’accesso alla
conoscenza di tipo scientifico
Movimento intende favorire l’apertura di ogni fase della ricerca scientifica (raccolta dati, elaborazione dei
risultati, pubblicazione). Non un’aperture indiscriminata (bilanciamento) poiché ci sono determinati
interessi contrapposti all’apertura della scienza e che devono essere tutelati a loro volta (es: proprietà
intellettuale, tutela dei dati personali) ma più possibile
Una buona scienza = trasparente, basata sulle nuove tecnologie, basata sulla cooperazione, senza spreco di
sforzi (un determinato problema potrebbe essere risolto con tecnologia X non usata per paura delle
conseguenze, si rischia problema di sottoutilizzo detto prima, si deve evitare)
Come si propone di risolvere quest’apertura “as open as possible”?
-
Open access = accesso libero ai risultati delle ricerche
Open scientific data = accesso libero ai dati, per evitare anche qui spreco di sforzi
Open methodology e open source =
Open educational resources =
CAPITOLO 6 LIBRO DI DURANTE
Riguarda il tema della verità e delle fake news, tema che apparentemente sembra strano in un libro dove ci
si occupa del rapporto tra diritto e nuove tecnologie
La verità è qualcosa che storicamente esula dall’ambito della normatività  ora il tema della verità è
diventata assolutamente centrale in una riflessione giuridica e politica a livello globale:
-
USA = campagna di Trump è stata segnata dal fatto che ci sia in suo riferimento una piattaforma
chiamata Truth
Il capitolo inizia dicendo che se il prof fosse entrato nell’aula enunciando qualcosa di falso nulla sarebbe
successo  si può mentire e nulla ci accadrebbe
Perché è lecito mentire (in generale)? È vero che ci sono dei casi in cui è illecito mentire, casi di
eccezionalità rispetto alla regola generale
La recente vicenda degli USA dimostra come dobbiamo mentire davvero molto prima di essere
politicamente sanzionati
In ciascun ordinamento democratico la regola generale è che mentire sia lecito
Ci sono casi ben individuati in cui mentire è illecito, perché l’atto di mentire corrisponde ad un’azione
illecita:
-
Se esercito il ruolo di testimone, se io in quel contesto mentissi, commetterei un reato
Se negozio un contratto, e sono tenuto nell’ambito delle trattative a operare in buona fede
(obbedendo a delle regole di trasparenza) e opero invece in malafede commetterei un illecito civile
Di qui la domanda = perché in un ordinamento democratico tradizionalmente è lecito mentire?
Kant sosteneva l’obbligo di dire la verità (verità è imperativo categorico), in contrasto con Benjamin […]
Perché la verità è soggettiva? Noi tutti abitiamo in un tempo e in un luogo, e dunque abbiamo assimilato
una cultura, siamo eredi di un patrimonio culturale in cui è vigente la distinzione tra soggettivo e oggettivo
 distinzione è assodata, che noi tendenzialmente non interroghiamo, mentre se lo facessimo ci
renderemmo conto di quanto è fragile
Una cosa falsa è tale solo se inganna qualcuno, altrimenti sarebbe finta (i soldi del monopoly sono finti,
perché tutti sanno che non sono veri, non ingannano nessuno)
Mentire non è così semplice, presuppone che chi mente sappia qualcosa di più rispetto alla persona a cui si
fa l’enunciato
Ci sono tante cose che sappiamo per convenzione  presupposto per cui tutti noi sappiamo ad esempio
che oggi è venerdì, e non si può mentire su quello
Non c’è davvero una verità oggettiva e una soggettiva, e la seconda sia soggetta alla menzogna più della
prima
In realtà la condizione per la quale io posso o non posso mentire Platone diceva che ne devo sapere un
po’ di più dell’interlocutore (ASIMMETRIA INFORMATIVA)
Distinzione tra
-
Mentire in senso generale =
Mentire empirico = perché non si ha il tempo e il modo, in quel momento, di accedere ad una
determinata informazione
Internet ha reso più semplice (fake news) e più difficile mentire (con internet si può accedere facilmente ad
una determinata informazione)
tutto ciò per dire che questa dicotomia tra verità oggettiva e soggettiva è un’eredità culturale che ci porta
lontani dalla risposta alla domanda “perché è lecito mentire”
Questa dicotomia è dunque una sciocchezza, Lynch dice che la verità non dipende solo da me
sulla stragrande maggioranza delle cose c’è un accordo intersoggettivo per ritenere queste cose come
convenzionalmente vere
nel capitolo si da per scontato che la verità esiste  si può discutere sul fatto che ci sono tante circostanze
in cui è difficile predicare se qualcosa è vero o falso
es: se io nascondo il barattolo di marmellata in alto, quel baratto diventa inaccessibile, ma non smette di
esistere
UN CONTO È IL PREDICATO DI ESISTENZA, UN ALTRO È IL PREDICATO DI ACCESSIBILITA’
Torniamo alla domanda originaria = PERCHE’ È LECITO MENTIRE?
Storicamente lo Stato, per Weber, è caratterizzato nella modernità per avere il monopolio sull’uso della
violenza. Non dobbiamo accettare che lo Stato abbia il monopolio su altre cose = DIRE SE QUALCOSA È VER
O FALSO NON PUO’ ESSERE MONOPOLIO DELLO STATO
Il monopolio della verità non lo rivendica lo Stato, come non lo rivendica la Scienza (non rivendica il
monopolio di quell’enunciato per il principio di falsificabilità = qualunque enunciato può essere soggetto a
riverifica e falsificazione “Popper”). Un soggetto empirico non può rivendicare il monopolio della verità, ma
ciò non significa che si elevi il relativismo per cui non c’è alcuna verità, nono.
Altrimenti sarebbe pericoloso tracciare la linea di distinzione tra ciò che è vero e ciò che è falso
Es: se noi dicessimo che è sempre vietato mentire, vorrebbe dire che in ogni frase che facciamo saremmo
chiamati a verificare se ciò che diciamo sia vero o falso, e quindi per tutta la vita ogni nostra manifestazione
di pensiero dovrebbe essere sempre verificata dallo Stato  gli ordinamenti democratici pensano invece
che questo processo di verifica debba essere fatto, dallo Stato, solo in alcuni casi
Quante possibilità abbiamo di mentire in generale, oltre al saperne più dell’interlocutore (Platone,
asimmetria informativa)?
-
Anna Arendt = filosofia, ha scritto diversi libri sugli stati totalitari  ASIMMETRIA DI POTERE = noi
possiamo mentire quando tre soggetti sanno che una cosa è falsa, ma due di questi soggetti si
mettono d’accordo per dire al terzo che una certa cosa è vera anziché falsa
A volte tutti sappiamo cosa è vero o cosa è falso, ma è sufficiente che un certo numero di persone riesca a
far valere che una cosa è falsa anziché vera e viceversa, perché ha un potere, perché viene istituito un
accordo a svantaggio di qualcun altro
Quando si mente nella prima accezione si fa solitamente per ottenere qualcosa di più che non otterrei se
dicessi la verità (“il mentire è orientato ad avere di più” filosofo italiano)
Quando si mente nella seconda accezione si fa solitamente per una ragione ancora più radicale, ovvero
escludere il terzo
Ecco l’altro motivo per cui nessun ente può rivendicare il monopolio della verità  sarebbe sempre nella
condizione di rinsaldare il proprio potere
Parliamo di un principio giuridico (anche epistemologico) = L’ONERE DELLA PROVA INCOMBE SU COLUI CHE
AFFERMA
L’inversione dell’onere della prova porta all’impossibilità della prova perché spesso è
epistemologicamente impossibile provare di non aver fatto una certa cosa, o di non aver mentito.
L’impossibilità della prova renderebbe ipso facto vera l’affermazione di chi accusa. È ciò che normalmente
fanno i regimi totalitari “dimostrami che non sei un borghese” = se devi dimostrare tu che io sono un
borghese è facile, se devo io dimostrare di non essere un borghese, diventa difficilissimo.
Non è mai così neanche nel diritto  è sempre l’accusa a dover provare la veridicità del proprio enunciato
Qual è lo schema all’interno del quale l’affermazione del falso può essere vietata?
-
John Searle elabora la teoria del performativo:
Compiere azione A equivale a B nel contesto C
-
Dunque prendendo questa struttura:
Dire il falso equivale ad un reato nel contesto del tribunale
Il diritto disciplina C, ovvero disciplina che cos’è un processo, e nell’atto di definire un processo definisce B,
ma non si è mai sognato di disciplinare A in quanto tale
Taluni sostengono che il diritto dovrebbe disciplinare A in quanto tale (odio, amore, verità, oblio, verità,
falsità) per colpa dell’Internet
È difficile che la rete sia il contesto C, poiché il contesto C in genere è limitato (il tribunale) ma se il contesto
C diventa la vita reale è illimitato e diventa pericoloso
FAKE NEWS
Diventate un fenomeno rilevante per la loro diffusione
Ci sono tanti motivi per cui le persone hanno interesse a far circolare informazioni false
-
Interesse economico = generare traffico, visto che la verità è noiosa e le falsità sono interessanti si
generano like, traffico, quindi si generano dati e metadati e si riesce a monetizzare
Interessi politici = le fake news sono uno strumento per manipolare l’opinione pubblica
La facilità nel mentire = se questo fenomeno diventa di una portata tale che non solo ne parliamo
ma ci poniamo il problema su come arginarlo come Stato da un punto di vista pratico (vedi
Germania, Singapore) ci chiediamo perché sia diventato così facile mentire
Una cosa che caratterizza la nostra società è che ci sono dei contesti in cui sembra che la verità non faccia
differenza. Ci sono dei momenti in cui la diffusione di fake news polarizza le opinioni e crea dei poli in cui
conta più l’appartenenza a quel polo che non la veridicità o falsità del mentire.
Es: se si seguissero alla lettera queste discussioni su NoVax e SiVax sembrerebbe non si abbia più accesso
alla verità  NON È VERO, oramai alle parti non interessa più l’enunciato della verità in quanto tale ma
l’appartenenza ad un gruppo, quindi la questione identitaria conta di più della veridicità o meno di
un’affermazione
Perché in teoria li abbiamo i criteri verificativi, come il principio di falsificazionismo
Noi abbiamo un modo di pensare binario  se non abbiamo una certezza allora siamo nel buio, ma la
scienza non ragiona così: ci sono le incertezze, ma ci sono le elevate probabilità di credere ad un’ipotesi
scientifica
Noi non facciamo quasi nulla nella vita sulla base di certezze assolute, ma sempre su elevate probabilità
Mentre da quando c’è il covid c’è stata la tendenza a farci credere che la condizione umana sia o 100% o
0%, di solito quando decidiamo qualcosa nella quotidianità lo facciamo sulla base di probabilità più o meno
elevate.
Proprio perché un’opinione viene distribuita più di altre finisce per essere maggiormente creduta
A volte in Internet non è vero o falso, ma se è facile verificare un’informazione lo faccio, altrimenti no
Quindi si sposta il criterio dalla verificabilità alla facilità di verificabilità
Nella comunicazione offline, tendevamo a fare riferimento a chi le informazioni le aveva filtrate per noi
(telegiornale, giornali, accademie)  preselezione di informazioni.
Ciò è in parte venuto meno  non abbiamo più questa sorta di selezione e dunque un accesso maggiore
alle informazioni
Questo comporta che spesso siamo in difficoltà nel comprendere se quelle informazioni siano vere o vero
 selezione delle fonti, in internet la maggior parte delle fonti non sono autorevolmente affidabili
A questo si somma il fatto che la nella comunicazione online abbiamo a che vedere con degli intermediari
che hanno reso più complicata la situazione. Gli intermediari (proprietari dei motori di ricerca, piattaforme
social) non creano contenuti ma si limitano a veicolarli, e quindi non si assumono la responsabilità dei
contenuti veicolati
SE E IN CHE MISURA RENDERLI RESPONSABILI DEI CONTENUTI VEICOLATI
Se si il titolare della piattaforma è spinto ad esercitare una censura preventiva sui contenuti ritenuti
potenzialmente forieri di un risarcimento
In più poiché non avrei la possibilità di affidare l’effettuare questa verifica preventiva ad esseri umani per la
troppa quantità di informazione dovrei affidarla a dei sistemi automatici  potrebbero essere orientati e
più o meno trasparenti.
Noi spesso non siamo nella posizione di sollecitare la loro accountability  rendere conto del come certe
informazioni sono veicolate
Ci pone dei problemi relativamente a quel livello di governance
Es: twitter arriva ad oscurare il profilo privato di Trump  lo poteva fare? Non lo poteva fare? È una forma
di censura?
-
-
Da una parte negli USA non esiste l’applicazione orizzontale europea dei diritti fondamentali. La
libertà di parola si fa valere nei confronti di soggetti pubblici, non soggetti privati, quindi taluni
sostenevano che Twitter fosse un’azienda di diritto privato, dunque se ritiene che Trump abbia
violato le loro policy può rimuoverlo
Da un’altra parte alcuni ritengono che anche nelle aziende di diritto privato come i social
dovrebbero avere le stesse regolamentazioni dei soggetti pubblici, quindi allargare il mercato delle
idee e applicare la libertà di parola
Possiamo impedire all’ex presidente degli stati uniti di dire una menzogna?
3 posizioni:
-
È uno spazio ancora privato / è uno spazio quasi pubblico
Altro ragionamento = Il filosofo Ostin (how to do things with words) = c’è un momento in cui le frasi non si
limitano a rappresentare il mondo ma ad agire o ad invitare ad agire. L’immaterialità della frase può
tradursi nella materialità del danno indotto
-
Certe cose che Trump diceva non erano rappresentazioni del mondo ma erano inviti ad agire,
istigazione all’odio / invece no
[ipoteticamente, si potrebbe difendere Trump da chi lo accusa di aver istigato le persone nei fatti di
Capitol Hill poiché abbiamo una correlazione statistica (telefoni agganciati alle celle dov’era il
comizio di Trump e agganciati a cellule di Capitol Hill), non un nesso di causalità]
Altro ragionamento fatto = esistono le condizioni del discorso, distinte dai contenuti del discorso
Condizione del discorso è una regola  parlare uno alla volta. Questa regola se seguita permette un
discorso ordinato, non permette di per sé stesso un discorso sensato (perciò distinto dal contenuto del
discorso)
Se violiamo questa regola, la condizione del discorso incide anche sui contenuti  se parliamo tutti
assieme non si può fare un discorso ASIMMETRIA
IL RISPETTO DELLA CONDIZIONE NON INCIDE SUI CONTENUTI MA LA VIOLAZIONE DELLA CONDIZIONE
INCIDE SUI CONTENUTI
-
In riguardo a Trump  se io mento qualche volta (intacco i contenuti), non metto in gioco le
condizioni del discorso. Ma se io mento sistematicamente intacco le condizioni stesse del discorso,
oltre che i contenuti
Non è facile percepire dove sta il confine tra condizione e contenuto
Ci sono varie soluzioni suggerite alle fake news:
-
Regolatorie = dobbiamo vietare le fake news con tutti i rischi che questo comporta. Quantomeno si
dovrebbero regolare in alcuni contesti, come quello elettorale.
Altri hanno detto che si dovrebbero regolare gli intermediari, perché dare tale potere di verificare
verità e falsità agli intermediari
Far sì che l’utente torni ad essere capace di accedere a dei filtri d’informazione: capacità
epistemiche degli utenti stessi  è difficile mentire se abbiamo tutti più o meno le stesse
informazioni. Ma è proprio perché per l’utente è difficile reperire informazioni autorevoli che esiste
il problema delle fake news
L’INVITO DI DURANTE = la vicenda dei filtri è stata presa sul serio solo in riferimento al tema
dell’attendibilità  tutti vogliamo far riferimento ad azioni che sono attendibili
L’attendibilità è ovviamente importante, ma anche la rilevanza è importante
-
Rilevanza = in fin dei conti la vicenda vero/falso ci dovrebbe interessare dal punto di vista che
hanno le informazioni in termini di rilevanza sulla nostra vita. Criterio che non viene sempre
adeguatamente preso sul serio
Floridi = capacità informativa degli enunciati
Non c’è una relazione diretta tra dire una cosa vera e dare un’informazione rilevante. Il fatto che si dica una
cosa vera potrebbe avere una limitata capacità informativa in relazione al mio scopo
Si misura un enunciato anche in base alla distanza dal vero
Nella comunicazione oggi dobbiamo cercare sia filtro di attendibilità che il filtro di rilevanza. Se siamo dei
destinatari passivi di riflessioni diviene facile ingannarci, perché per noi non sono davvero rilevanti
Forse il motivo per cui nel discorso pubblico è diventato così facile ingannare è perché non ci sono chiari i
motivi, o non ne abbiamo a sufficienza, in ragione dei quali ricerchiamo le informazioni.
La rilevanza è direttamente corrispondente alla distanza dal vero, in base alla quale dobbiamo misurare la
capacità informativa degli enunciati
CAPITOLO 7 DEL LIBRO DI DURANTE
I genitivi possono sempre essere intesi in due modi diversi
-
In senso oggettivo = “l’oggetto del governo sono gli algoritmi”
In senso soggettivo = “sono gli algoritmi stessi che governano”
L’uso degli algoritmi sono diventati pervasivi nella nostra società
Cos’è un algoritmo? È una procedura seguendo la quale si ottiene il risultato desiderato
Algoritmi più complessi = machine learning si tratta sempre di procedure formalizzate da un punto di vista
matematico
Termine governo = polisemico. La matrice è tuttavia comune, riporta all’idea del timone della nave, il
gubernum, da cui il gubernaculum = nel nostro medioevo veniva contrapposto alla iurisdictio per indicare
due tipi diversi di governo del re
-
Nell’ambito del gubernaculum aveva pieni poteri
Nell’ambito della iurisdictio i poteri del re erano limitati
Questa distinzione porterà secondo Hobbes alle guerre civili
Oggi quando ci riferiamo al governo non intendiamo quel significato ivi detto ma ci riferiamo per la
tripartizione dei poteri di Montesquieu, ad un potere dello stato, l’esecutivo, ovvero quel potere preposto
istituzionalmente per la presa di decisioni
Attori privati della governance  riguarda il ruolo di ICAAN
Nel capitolo 7 si parla di governo degli algoritmi, sostanzialmente non si fa riferimento alla struttura
istituzionale ma ai problemi che pone l’uso pervasivo di questi algoritmi nella società contemporanea, e le
decisioni politiche relative a questi stessi problemi
Su queste basi il capitolo può essere illustrato sulla base di quattro punti
1) Governo degli algoritmi nelle sue articolazioni interne, già solo a partire dalla definizione del
genitivo della formula (intendere gli algoritmi come oggetto della regolazione, sia gli algoritmi come
modalità stessa secondo cui la regolazione avviene) [capitolo del design genitivo in senso
soggettivo]
2) Principali problematiche relative agli algoritmi secondo la scansione degli input, output e ciò che li
lega, cioè la procedura di calcolo medesimo
3) Il rapporto tra essere e dover essere relativo all’ambiguità degli algoritmi, che potete intenderli sia
da un punto di vista normativo o descrittivo della realtà
4) Ci sono meta problemi sugli algoritmi, meta problemi sono problemi ulteriori che rendono ancora
più complessi i problemi accennati prima, riguardano sia questioni di delegazione sia questioni di
standard (esempio di standard giuridico è 1153 del codice giuridico su effetti dell’acquisto della
proprietà)
: il governo (regolazione) degli algoritmi pone la questione della delegazione di decisioni
e compiti e l’epistemologia sottintesa
Questione del genitivo
-
in senso oggettivo  algoritmi sono l’oggetto dell’azione regolativa del legislatore
Es: la proposta di regolazione dell’IA proposta dalla commissione europea del 21 aprile. Se passa sarà
bandito l’uso di identificatori biometrici in tempo reale in luogo pubblico.
-
In senso soggettivo  gli algoritmi ci comandano
Articolo 22 del regolamento europeo sulla regolazione dei dati personali = GDPR. Questo articolo ha
introdotto e stabilito un nuovo diritto, il diritto di richiedere l’intervento umano per qualsivoglia procedura
automatizzata
Esempio di governo degli algoritmi, in cui l’algoritmo non da scampo, è dato da tutti i digital right manager.
Se si prende il kindle, oltre a leggere il libro non si può fare assolutamente nulla
Perché gli algoritmi stanno diventando pervasivi nella società? Perché in buona parte dei casi sono molto
efficienti, progressivamente abbiamo affidato sempre più compiti e decisioni a questi algoritmi.
Lo standard di automazione delle macchine va da 0 a 5, il valore soglia più rischioso è a 3 (la macchina si
guida un po’ da sola ma si deve sempre far attenzione)
La branca dell’automazione nasce in ambito militare e poi si espande all’uso civile
Fino a che punto possiamo delegare alle macchine queste decisioni militari? Es: armi letali autonome
In Europa si sta andando in direzione di nuovo diritto di sapere se sto interagendo con un essere umano o
con un’intelligenza artificiale
È già legge in California
Per questa crescente tendenza a delegare decisioni e compiti all’AI c’è un aspetto epistemologico
(conoscenza)
-
Epistemologia delle macchine
Epistemologia per le macchine
Differenza è importante perché da una parte la nostra tendenza porta ad antropomorfizzare le macchine,
cioè a proiettare le sensazioni e i comportamenti umani nelle macchine. Ma il modo in cui NAO (robot)
conosce non centra nulla con il modo in cui gli uomini conoscono: dal punto di vista cognitivo e
epistemologico siamo in due mondi diversi. Siri si muove su un piano sintattico, per quanto mi dia l’illusione
di capire (piano semantico) la comprensione rimane ancora esclusiva dell’uomo
Tuttavia c’è anche epistemologia delle macchine; il problema conoscitivo non riguarda solo l’intelligenza
artificiale forte e quella debole,
ma anche per le macchine  noi disegniamo un ambiente su misura tale per cui questi sistemi di AI
possono operare. Es: quando avremo le macchine a guida autonoma si dovrebbe cambiare tutta la
segnaletica stradale
Fino a che punto possiamo spingerci a riplasmare il mondo per renderlo confortevole alle intelligenze
artificiale?
= quali sono gli elementi costitutivi degli algoritmi?
Parlando del terzo gruppo di scuole giuridiche, informazione sulla realtà, Luhmann = uno dei più importanti
sociologi del diritto  TEORIA DEI SISTEMI
Il diritto può essere inteso come un sistema, per Luhmann il diritto rappresenta i globuli bianchi della
società
Input – processi – output
-
Input = problema che il sistema deve risolvere, per ogni problema devi prendere una decisione,
ogni decisione solleva un rischio, procedura per prendere queste decisioni comporta un output,
cioè la risposta che il sistema giuridico da a quello specifico problema sgravando i consociati dal
dover decidere in prima persona di quel problema
Parlando di algoritmi
-
Gli input = sempre e solo dati (Leibnitz i dati solo 0 e 1)
Gli output = sempre e solo dati, decodifichiamo in termini di decisioni o consigli
Aspetto procedurale = gli input li si possono trattare con tecniche di apprendimento automatico, o
con tecniche di reti neurali
Che problemi emergono rappresentando gli algoritmi secondo la scansione input – procedura – output?
-
Per quanto riguarda gli input abbiamo già il problema rubbish in, rubbish out = se si mettono dati
qualitativamente difettosi, certamente l’output sarà egualmente viziato da quei dati iniziali (difetti
= bias)
Un primo problema fondamentale riguarda la qualità dei dati che vengono inseriti nella macchina
Questa serie di problemi, di bias, degli ingegneri, si riflette nei dati immessi nel sistema.
Spesso questi input sono viziati per via della mentalità degli ingegneri (es: Google non fu in grado di
distinguere gente nera da scimmie)
Dall’altra parte i dati possono essere viziati per problemi ancora più gravi  in ambito farmacologico i dati
sono perlopiù di persone caucasiche, e siccome in molti casi le malattie dipendono dalle etnie i dati sono
solo di persone di paesi ricchi occidentali, come si aiutano i paesi in via di sviluppo.
La qualità dei dati non dipende solo dai bias di ingegneri ma anche da problemi più gravi e strutturali
riguardanti le diseguaglianze tra Nord e Sud del pianeta
Negli attuali ordinamenti giuridici non ci sono disposizioni per responsabilità giuridica per difettosità dei
dati
Un secondo problema fondamentale riguarda la procedura e di conseguenza l’output
Da una parte, i problemi di procedura sono stati coniati con una formula “algoritmi sono scatole nere”, idea
resa popolare da Frank Pasquale, in cui il problema è che magari il risultato dell’algoritmo è mirato, ma è
impossibile ricostruire come ci sia arrivato l’algoritmo a quel risultato
Scatola nera come difficoltà nel capire perché una macchina sia arrivata a quel determinato risultato
se le cose vanno male, è sconfortante e drammatico non riuscire a stabilire perché la macchina abbia
portato a quel risultato catastrofico, ragion per cui articolo 22 del GDPR ha stabilito anche il diritto ad avere
una spiegazione di ciò che l’algoritmo ha deciso
è cambiata la tecnica di programmazione:
-
Mentre fino agli anni 80 era linea per linea dare tutte le istruzioni
A partire dagli anni 90 non più così ma si da una funzione alla macchina secondo la quale trattare i
dati e poi fa lei (es: la macchina impara a giocare a Go)
Se l’obiettivo dipende da black boxes c’è un aspetto inquietante
Contro i tecno deterministi, che dicono che la tecnologia è inarrestabile, ancor meno dal diritto  l’articolo
22 del GDPR ha creato un nuovo settore dell’informatica “explainable AI” = si dedica a rendere i black
boxes trasparenti, perché il peso del diritto europeo ha fatto si che persino nei grandi luoghi della
tecnologia si ponesse questo problema
rapporto tra essere e non essere
Diritto come scienza normativa (Kelsen “il diritto si occupa del dover essere e non di ciò che è”) con il
design giuridico il diritto tende ad essere esso stesso una scienza empirica, che riguarda l’essere delle cose,
non il dover essere
Il rapporto tra condizione e conseguenza “se A allora B” diventa un rapporto tecnico e non certo più
normativo
Legge di Hume = radicale separazione tra essere e dover essere la si fa tradizionalmente fare risalire ai libri
di storia scozzesi di Hume, in cui la tesi è che dal fatto empirico che le cose siano state così non possiamo
dedurre dal punto di vista normativo che le cose dovevano o debbano andare così
Da un fatto non possiamo ricavare un valore
Il che è sensato, fino ad un certo punto.
I contratti possono essere:
-
Nulli = caso di radicale nullità di un contratto è dato dall’impossibilità delle prestazioni (deduzione
di valore da un dato empirico)
Annullabili
L’esempio è dato da Kelsen, il diritto vuole essere una scienza
-
Valutativa
Ma lui stesso per la legge suprema deve rivolgersi ad un giudizio di valore
Valore soglia = serve per la funzione predittiva dell’algoritmo medesimo. Molte delle decisioni cruciali della
vita sono prese da algoritmi, e quando l’algoritmo deve dare l’output, per stabilire se si o no ha bisogno di
valori soglia che serve per stabilire se quel soggetto una volta dato quel servizio lo ripagherà.
Qua cominciano i problemi:
-
Da una parte chi disegna questi algoritmi dovrà pure creare il consumatore ideale, lo studente
ideale ecc ecc
Questa necessità informatica ci riporta indietro al problema dei dati che mettiamo nel sistema
(primo problema). Questo problema si lega al controfattuale algoritmico (caso Sully).
Il problema si può prendere da due punti di vista
1) Le simulazioni come ricostruzione di un mondo virtuale per capire cosa succede nel mondo reale.
Da una parte si fanno simulazioni per comprendere ciò che accade nel mondo vero
2) La ricostruzione di questo mondo virtuale per darvi quelle spiegazioni di cui all’articolo 22 del
GDPR. Dall’altra parte si affronta il problema con articolo 22 (se non mi danno il mutuo, ho il diritto
di sapere perché non me l’hanno dato, quali condizioni devo soddisfare e ho il diritto che sia un
uomo a farlo).
Chi immette i dati quantifica lo studente ideale, il consumatore ideale, lo scarcerato ideale, ma lungi
dall’essere semplicemente una descrizione della realtà assume un potente valore normativo (Es: Cina ha
obiettivo di arrivare alla score society entro fine decennio, con finalità di far diventare coattivamente
tantissimi cittadini eccellenti)
i meta problemi
Problemi di secondo grado, che riguardano questioni di delegazione che problemi di standard
-
Delegazione = la ragione per cui stiamo discutendo di questi temi dipende dalla circostanza che
questi algoritmi sono efficaci e a loro deleghiamo la maggior parte dei compiti
Standard =
A livello epistemologico, chiaro che una macchina non comprende una lastra allo stesso modo di un dottore
Fin dove possiamo spingerci a delegare decisioni e compiti di vita e di morte a degli algoritmi?
La prima questione da chiarire è che le macchine sono automatiche e noi no, siamo riflessivi  NO. Bisogna
far caso che la stragrande maggioranza delle decisioni che prendiamo sono fatte in automatico.
Ciò che insieme siamo venuti maturando e pubblicando ha a che fare con la distinzione tra casi semplici e
casi difficili del diritto  la dobbiamo a Art, filosofo del diritto che ha scritto “il concetto del diritto”.
-
-
Un caso semplice è quando la decisione è automatica  esempio di automatismo giuridico è il
contratto a prestazioni corrispettive che facciamo quando compriamo il caffè al bar. I casi semplici
sono la maggioranza nel diritto
Un caso difficile è quando la sua soluzione può essere l’una e il suo contrario e per entrambe le
risposte ci sono ottimi argomenti giuridici  esempio di caso difficile è l’uso delle armi letali
autonome.
Uno sosteneva che l’uso delle armi letali autonome è legittimo purché le armi rispettino la legge, cosa
cambia se è un caccia bombardiere o un’intelligenza artificiale a ottenere lo stesso obiettivo, come il
bombardamento di un sito pericoloso?
Un altro che per principio giammai in nessun caso questo tipo di armi sarebbe legittimo, immorale contro
ogni principio che una macchina possa prendere decisioni di vita e di morte
Quando scoppia la guerra civile inglese (Hobbes)
-
Da una parte re Giacomo aveva dalla sua la lettera della legge
Il parlamento aveva dalla loro lo spirito della legge
RISULTATO È GUERRA
CIVILE
Non dovremmo delegare la decisione alle macchine su casi difficili, visto che già la comunità giuridica è
divisa su questi.
Lewis vs Winsconsin, 2016 = discusso in Winsconsin il caso del signor Lewis  chiede al suo avvocato di
presentare domanda di libertà condizionale e in primo grado il tribunale respinge la domanda, basandosi su
la consulenza di un sistema (compass) e il giudice ottiene l’output “è altamente probabile che commetterà
crimini”  VOI VI FIDERESTE DI UN GIUDICE ALGORITMICO?
L’avvocato di Lewis fa richiesta di esame dell’algoritmo di compass, il tribunale rifiuta la richiesta perché il
codice sorgente di compass è protetto da proprietà intellettuale e quindi non si può mostrare.
L’avvocato ha fatto ricorso alla corte suprema del Wisconsin che rifiuta anche lui
La corte suprema dice che l’output di compass non è stato se non un solo elemento su cui il giudice ha
basato la sua decisione
Il punto è che spesso, molti problemi difficili, sono impossibili da contrastare
Grazie a articolo 22 del GDPR nacque explainable AI  prendiamo il caso Lewis, lo possiamo adattare
all’Italia  in molti casi quel codice non può essere mostrato legittimamente.
Se prendiamo un terrorista e i servizi segreti  i quali ovviamente usano i sistemi algoritmici per
individuare i sospetti e la rete dei sospetti, per ogni processo i servizi segreti devono mostrare le loro
tecniche informatiche?
Per ogni caso, si dovrebbe cestinare il vecchio algoritmo e crearne uno nuovo
Ci sono casi in cui la trasparenza per motivi di sanus republicae è impossibile
Esempio: cosa significa la prova conoscenza 0? Significa che io posso disegnare il mio algoritmo in modo
che anche se non mostro il codice sorgente e i dettami tecnici del suo funzionamento, tuttavia posso
provare matematicamente che io rispetto la legge
COME? Devo dimostrare che un telefono è mio, ma non voglio farlo mostrandovi la password  si apre con
l’impronta digitale
-
Standard = non sono solo tecnologici ma anche giuridici. Ad esempio lo standard giuridico della
buona fede (buon padre di famiglia ecc), ma anche standard sociali.
Internet nasce per caso, ma per parlare tecnicamente di internet si deve attendere i primi anni 80 perché
solo allora si stabiliscono gli standard di Internet (http ecc)
L’aspetto interessante degli standard da una parte riguarda il fatto che essi ci semplificano la vita (es
standard di prese di corrente universali), ma richiedono tempo, sia quelli tecnologici che giuridici.
-
Tecnologici = proposta di legislazione europea su AI in cui uno dei punti più controversi ha a che
fare con i nuovi standard per i sistemi di intelligenza artificiale. Un esempio riguarda l’immissione di
un livello di protezione dati maggiore (es: droni le cui telecamere siano le meno invasive possibili
nella nostra privacy). In genere questi standard vengono dal basso, la proposta vorrebbe farli venire
dall’alto
-
Giuridici = non sono meno importanti. Negli stati uniti d’America per stabilire che livello di
riservatezza potete rivendicare si ricollega con lo standard.
1) Da una parte perché uno possa rivendicare la privacy uno si deve comportare in modo tale che ciò
corrisponda alla propria aspettativa (se si cammina nudi il comportamento stesso tarpa a priori
ogni rivendicazione di privacy)
2) Dall’altra la società nel complesso deve essere pronta ad accettare che la mia aspettativa sia
ragionevole.
Il punto è che la tecnologia sta cambiando così rapidamente la nostra società che è difficile all’atto pratico
oggi dire che standard sociale abbiamo rispetto a possibili usi della tecnologia medesima.
Es: difficile dire se per la gente del campus ha senso o meno vietare l’uso dei sistemi di AI per
l’identificazione biometrica in tempo reale, non ci sono standard sociali per questo
CAPITOLO 8 DEL LIBRO DI DURANTE
L’asimmetrica distribuzione di dati e diritti
1)
2)
3)
4)
Le tipologie di dati
Il principio di autodeterminazione informale
Il diritto alla spiegazione (Articolo 22 del GDPR)
Le strategie della spiegazione
TIPOLOGIE DI DATI
Si è cercato di capire dal pensiero di Floridi cosa fosse un dato, il cambiamento dei dati connesso con istituti
di diritto tipici
Se prendiamo un oggetto fisico, ci si rende conto che è più facile seguire il ciclo di vita di quell’oggetto e gli
istituti connessi a questo oggetto:
-
Ius escludendi alios = diritto di escludere le ingerenze altrui
Ius utendi = diritto di utilizzare quel bene
Ius fruendi = diritto di trarre beneficio
Ius alienandi = diritto di alienare il bene
Ius abutendi = diritto di distruggere il bene
Post mortem = come titolare del bene si dispone di quel bene anche dopo la morte attraverso un
testamento
Quando si ha a che fare con i dati ciò diventa ben più complesso  questi istituti connessi al mondo reale
fisico rimangono validi?
-
Si può dire di escludere gli altri dal godimento dei miei dati personali?
Si può effettivamente dire di starne beneficiando?
È indubbio che vi sia un trattamento dei nostri dati personali da parte di aziende
Possiamo vendere i dati personali? Ad un’azienda non interessano i dati personali di me stessa, ma
interessano i dati personali aggregati di più soggetti
Si possono distruggere i dati? Da un punto di vista tecnico è difficilissimo, ma esiste il diritto
all’oblio che non è cancellazione dei dati ma deindicizzazione
Esistono dati che perdurano la morte del soggetto?
FINO A CHE PUNTO GLI ISTITUTI DEL DIRITTO CLASSICO HANNO TENUTA IN RELAZIONE ALLE NUOVE
PROBLEMATICHE
Il primo rischio è quello di avere una concezione proprietaria dei dati personali  rischio perché non è
facile considerare i dati come oggetto di proprietà privata, da un punto di vista della disciplina
Adottare una visione proprietaria del dato crea un fortissimo legame tra il concetto di consenso e la
disciplina dei dati personali
Non funziona benissimo questo legame  quante volte prestiamo il nostro consenso al trattamento dei
dati capendo poco di quel che viene detto nell’informativa
alla distribuzione di dati non corrisponde necessariamente la distribuzione dei diritti
3 interpretazioni di dato:
-
= Rodotà e Floridi condividono questa concezione del dato
Rodotà il primo garante per la protezione dei dati personali
privacy informazionale  floridi la definisce come libertà da interferenze o intrusioni informazionali,
restringendo il novero dei fatti che la riguardano che devono restare sconosciuti o inconoscibili  rimanda
al concetto di opacità della Arendt
privacy come accesso ristretto e controllo limitato, ma resta difficile comprendere i contorni di questo
istituto (Hanna Arendt)
dal concetto di Privacy informazionale possiamo andare oltre:
-
Se consideriamo ogni individuo come costituito dalle proprie informazioni
Allora la violazione della privacy può essere concepita come una forma di aggressione rivolta alla
sua identità personale
Questo è strettamente connesso al principio di asimmetria informazionale  principio sviluppato dalla
corte costituzionale tedesca nel 1983
-
= “il dato come il nuovo petrolio”
Le aziende col profitto maggiore hanno a che fare con i dati.
Se da un lato questo ha come conseguenza il fatto che i dati abbiano un valore economico
Dall’altro lato chi da la protezione dal punto di vista giuridico di interessi legati al valore economico?
Digital single market = strategia di UE sul mercato unico in cui deve essere incluso anche il mercato dei dati
Dal trattato di Lisbona del 2009 la carta di Nizza (carta dei dirittI fondamentali) è legalmente vincolante 
forte dimensione connessa alla tutela dei diritti fondamentali in UE
Il mercato unico digitale ha l’obiettivo di trovare un nuovo bilanciamento tra esigenze e interessi opposti
-
Diritto alla spiegazione, sancito dal GDPR
Articolo 1 del GDPR = emblematico di questo bilanciamento.
Il primo paragrafo dice che da un lato c’è la protezione delle persone fisiche, dall’altro norme relative alla
libera circolazione dei dati  non è dunque una limitazione totale alla libera circolazione dei dati
Il secondo paragrafo
[carta di Nizza garantisce il diritto alla protezione dei dati personali]
Il terzo paragrafo esplicita questo = viene detto chiaramente che l’obiettivo del GDPR non è quello di
ostacolare in tutti i modi la libera circolazione dei dati personali; c’è sempre una dimensione economica
garantita
-
= di che?
Questa interpretazione identifica i dati come presupposto per il riconoscimento di una serie di diritti.
Riconoscimento di diritti, di prerogative, di altri tipi di interessi
Il concetto dell’approccio al rischio = il GDPR è un regolamento europeo, un atto normativo dell’UE ma ha
caratteristiche specifiche, non è necessario il recepimento nell’ordinamento ma viene direttamente
applicata.
L’obiettivo è quello di rendere gli attori consapevoli dei rischi connessi al trattamento dei dati personali, gli
attori stessi determinano il rischio e determinare le conseguenti misure organizzative da adottare per
garantire libertà e diritti degli individui
3 principali attori del trattamento dei dati personali:
1) Data subject = titolare dei diritti, la persona fisica identificata i cui dati personali sono oggetto del
trattamento
2) Controller = titolare del trattamento, colui che determina finalità e mezzi del dato personale
3) Processor = responsabile del trattamento, colui che processa i dati per conto del titolare del
trattamento e si adegua a finalità e mezzi del controller
Esempio  poniamo che una persona fisica si iscriva all’università e si rivolge ad un altro soggetto che
identifica l’università
-
Alessandro va sul sito (Manuel) o va di persona all’università
Per iscriversi verrà richiesta una serie di informazioni ad Ale (nome cognome istituto frequentato)
Manuel si avvarrà di Alice, azienda IT che fornisce il servizio all’università, fornisce il sito, il software
di MyUnito
L’analisi di approccio al rischio è sviluppata dal controller  deve comprendere i rischi connessi a quello
specifico trattamento
All’interno del GDPR non vi è una definizione di rischio  quella che adottiamo la definisce il WP29 (ente
connesso all’articolo 29 della direttiva del 1995 composto dai rappresentanti delle autorità di controllo di
ogni stato membro, soft law) valutazione non stabile ma dinamica
Sul concetto di dato come presupposto, un esempio è quello del mutuo  un data subject si rivolge ad
un’entità di credito per ottenere un mutuo, tale entità per definire l’affidabilità del data subject si avvale
del supporto di un’azienda di analisi dati, che fornisce un software che analizza una serie di dati da cui
sviluppa un profilo astratto di debitore; alla luce dell’analisi venga negato il mutuo al data subject
In questo caso il data subject l’istituto di credito non ha gli strumenti per fornire la spiegazione al data
subject, poiché la valutazione è stata fornita attraverso un software.
È qui che gioca il diritto alla spiegazione
PRINCIPIO DI AUTODETERMINAZIONE INFORMALE = in un mondo configurato dallo sviluppo della
tecnologia, e una riconfigurazione dei rapporti del potere, questo contesto ha un considerevole impatto nel
riposizionamento del diritto. Da questo contesto di innovazione tecnologica c’è una situazione in cui il
soggetto non ha controllo diretto sul ciclo di vita dei propri dati personali
Principio sviluppato dalla corte costituzionale tedesca  1983, una società differente dalla nostra. La corte
ancora il concetto di protezione dati personali al concetto di autonomia personale
” ogni individuo dovrebbe avere la possibilità di sapere quale entità detiene e che tipo di dati personali che
lo riguardano, per poter prendere decisioni di autodeterminazione personale”
Molte cose sono cambiate oggi
Proposta una nuova interpretazione, che non comprende solo la dimensione del controllo ma a questo
primo aspetto connesso all’originario concetto ne vengono connessi altri
-
-
Dimensione di accesso = possibilità di accedere ai dati di terzi per poter prendere decisioni
informate (articolo 1 del GDPR, sia protezione della persona fisica che della libera circolazione dei
dati)
Dimensione di interpretazione = vi dovrebbe essere a garanzia della tutela dei dati personali
l’accesso ad una corretta interpretazione delle info, fake news
Dimensione del riutilizzo = possibilità di riutilizzare le informazioni di cui si ha accesso per favorire
le possibilità espressive
Dimensione del rifiuto = garantisce l’autonomia del singolo a non accedere a quell’informazione
FAKE NEWS = problema di epistemologia e di democrazia  non un problema di ciò che è vero e ciò che è
falso, ma un problema di rappresentazione della realtà. I detentori della conoscenza, una volta
producevano i contenuti, oggi ci offrono dei servizi
RIFLESSIONE FINALE = ruolo della collettività iperconnessa = in questa infosfera (dimensione di
informazioni) non per forza i singoli abbiano più controllo rispetto al passato
DIRITTO ALLA SPIEGAZIONE = diritto che agisce in quella situazione descritta prima, del mutuo
Il data subject a cui è stato negato il mutuo sulla base di un profilo astratto di analisi realizzata da
un’azienda terza che ha fornito il servizio all’ente di credito.
Il data subject può richiedere quali siano le motivazioni alla base di quel tipo di trattamento dei dati
personali che ha presupposto il rifiuto (dato come presupposto)
Va al di là di semplice spiegazione fornita  alla base c’è la motivazione di una determinata decisione
Va al di là di rimedio giuridico, ma ha un vero e proprio legame con il concetto di libertà calato in una
società ICT dipendente (principio di autodeterminazione informazionale)
Capacità riflessiva come capacità di analizzare criticamente i fatti accaduti (Floridi, motori semantici)
Articolo 22 del GDPR  sulla profilazione (articolo 4) non abbiamo dubbi. Garantisce il diritto
dell’interessato a non essere sottoposto ad una decisione basata unicamente su un sistema di trattamento
automatizzato, ma ci sono delle eccezioni  in queste eccezioni l’interessato ha il diritto di ottenere
almeno l’intervento umano da parte del titolare del trattamento di esprimere la propria opinione e di
contestare la decisione
LA PAROLA SPIEGAZIONE NON È CONTENUTA NELL’ARTICOLO 22  di fatto non vi è alcun richiamo
esplicito al concetto di spiegazione, nel paragrafo 1 si parla di altro, viene ulteriormente spiegato che il
trattamento automatizzato deve essere affiancato all’intervento umano
[i regolamenti europei prevedono una parte iniziale di intestazione, poi una parte iniziale che è
un’elencazione dei considerando = indicazioni in merito al corpo dell’atto normativo, ovvero gli articoli,
sono in genere la parte meno modificata, la più vicina a quanto è l’idea originaria]
In questo caso solo nel considerando 71  richiama il concetto di “unicamente” di “profilazione = esempio
di trattamento automatizzato. Un esempio di profilazione è l’acquisto del libro del prof Durante, in seguito
sarà identificato come un certo tipo di consumatore e il profilo astratto di quel consumatore può aver
acquistato il libro di Pagallo, e mi verrà proposto”
Garanzie adeguate richiama approccio al rischio  le garanzie non sono specificate nel particolare, non vi è
una lista di garanzie da porre in atto, il GDPR dice che devono essere garantiti una serie di diritti al data
subject, ma poi sta al controller definire quali siano le più adeguate garanzie a quel trattamento sulla base
del rischio di quel trattamento
Tale diritto alla spiegazione deve prevedere un intervento umano, deve essere dato esprimere la propria
opinione e devono essere fornite le specifiche informazioni all’interessato (articolo 13 GDPR, il titolare del
trattamento deve fornire all’interessato una serie di informazioni, una volta si chiamava informativa)
Può esserci un’altra situazione  in cui i dati personali sono tenuti dal titolare del trattamento senza che
siano stati concessi dal data subject. Se vado in pronto soccorso, i miei dati personali saranno prestati per
guarirmi, dopo di che questi dati possono essere usati per finalità di ricerca scientifica, e vengono trasmessi
dal pronto soccorso a dei gruppi di ricerca. In questo caso l’articolo 14 dice che il titolare ha comunque
l’obbligo di fornirmi le informazioni lettera f dice che in caso di uso di un sistema di trattamento
automatizzato si debba fornire questa informazione, ovvero l’uso di sistemi automatizzati, e deve essere
anche edotto sulle informazioni relative alla logica utilizzata
Che tipo di spiegazione posso pretendere? E che tipo di spiegazione può fornirmi il titolare del
trattamento? Io non auspico davvero a sapere come operi un algoritmo, perché non ne ho le conoscenze
-
C’è chi ha negato che dall’articolo 22 possa davvero discendere una spiegazione
C’è chi ha identificato un vero e proprio diritto alla spiegazione discendente da articolo 22
C’è chi, anche qualora fosse configurabile un diritto alla spiegazione, non sarebbe utile per una
serie di problematiche (come la difficoltà a determinare la spiegazione, problemi di proprietà
intellettuale)
Nella posizione centrale  laddove si sostenga l’esistenza di un diritto alla spiegazione, ma che tipo?
-
In chiave sostanziale = discendendo un obbligo di informazione dall’articolo 14 (spiegazione che
voglio ottenere è logica utilizzata)
In chiave procedurale = esiste un diritto alla spiegazione connesso al diritto di difesa del singolo,
che per agire in giudizio ha bisogno di elementi che spieghino quel determinato trattamento
automatizzato che gli permettano di difendersi in maniera effettiva
LE STRATEGIE DELLA SPIEGAZIONE = TRE PRINCIPALI STRATEGIE
-
ACCOUNTABILITY= processo di responsabilizzazione. Fondamentale nell’architettura del GDPR,
riferimento esplicito è all’articolo 5 = al secondo paragrafo viene detto che il titolare è competente
del rispetto dei principi dei quali al paragrafo 1 e in grado di comprovarlo.
3 leggi della robotica di Balkin, secondo le quali gli algoritmi



Sono fiduciari informativi nei confronti dei data subject
Hanno un dovere di natura pubblica nei confronti di noi utenti
Tali algoritmi non possono analizzare costi e danni di tali utenti non interessati
Funzionali a comprendere la quarta legge di Frank Pasquale
1) Oltre alle tre leggi della robotica ce n’è una quarta: per ogni macchina sia sempre possibile
identificare l’identità del creatore di quel determinato macchinario
Obiettivo è identificare una sorta di responsabilità by design  secondo Pasquale la spiegazione di cui
l’articolo 22 deve essere necessariamente fornita da intervento umano
Come risolve il problema di identificare questa spiegazione? Attraverso il concetto di responsabilità
-
SPIEGAZIONE CONTRO FATTUALE = comprendere in che misura sia possibile effettivamente una
spiegazione
In che misura questa spiegazione soddisfa il singolo? C’è una necessità però etica alla base di questo diritto
alla spiegazione
Soluzione alternativa  alla luce dell’articolo 22 del GDPR si dice di fornire una spiegazione che permetta di
comprendere contestare e modificare (contro fattuale). Al posto di una spiegazione di come davvero
funziona quell’algoritmo, per ovviare questione black box, forniamo una spiegazione si utile per
-
-
Comprendere = nella misura che mi permetta di comprendere quali siano stati i fattori
determinanti che hanno portato il titolare a raggiungere quella decisione
Contestare = costruire una difesa in giudizio, spiegazione deve permettere di imbastire una difesa
Modificare = spiegazione deve permettermi di modificare i comportamenti futuri (un po’ il limite
della spiegazione contro fattuale, permette di modificare solo i comportamenti futuri, non quelli
soggetto del problema)
AUTOMAZIONE DELLA SPIEGAZIONE = studiosi del Berkman Klein Center ad Harvard  la loro
proposta è, se il nostro obiettivo è come fornire una spiegazione di un’attività di trattamento di dati
personali automatizzato facciamo si che sia la macchina stessa a fornire quella spiegazione
il primo ostacolo è far comprendere alla macchina il concetto di spiegazione = non descrizione di quel
processo input – output, ma un insieme di autorevoli giustificazioni che la macchina sia in grado di
comprendere
spiegazione non riguarda la trasparenza
per fornire una spiegazione di fatto prodotta dalle macchine si identificano due proprietà
-
Spiegazione locale = la macchina deve essere in grado di comprendere i determinati fattori che
hanno condotto a quel determinato output che ha creato il danno al singolo
-
Credibilità controfattuale = necessità di spiegare con termini comprensibili all’uomo quale sia il
fattore di contro peso
Quale rappresentazione della realtà stiamo delineando? Degli esseri umani o delle macchine?
Tema che si connette al concetto di avvolgere il mondo in una maniera tale che favorisca l’operato delle ICT
CAPITOLO 9 DEL LIBRO DI DURANTE
lealtà, defezione e protesta
Albert Hirschman  studioso di temi legati all’economia, scienze sociali e libro chiamato “lealtà, defezione
e protesta” nel 1970
chiave di interpretazione per il rapporto tra utenti e giganti della rete
Albert dice che ci sono degli enti, possono essere imprese, organizzazioni, partiti, lo Stato, che producono
qualche cosa (bene, servizio) e si chiede = quando io sono confrontato sul mercato con un ente che
produce un servizio la cui qualità diminuisce nel tempo, cosa posso fare per spingere quell’ente a far sì
che esso torni a produrre con la qualità precedente quel bene o servizio?
qual è l’interesse di questo schema? che si applica a diverse realtà. in quanto singoli, per poter agire su
queste realtà (ente, ecc)
Hirschman dice che fondamentalmente all’individuo sono date 2 possibili strategie di fronte alla crisi di un
ente:
-
DEFEZIONE = abbandonare quel bene o servizio e andare a cercarlo altrove
PROTESTA = manifestare il proprio dissenso e chiedere esplicitamente che quell’ente, azienda,
ritorni a produrre quel bene o servizio con la stessa qualità con cui lo produceva in precedenza.
Normalmente la defezione è la strategia prediletta in ambito economico, poiché la diminuzione della
domanda può essere uno stimolo per l’ente a modificare il proprio comportamento
come incide la natura del bene in questo caso? esistono i beni sostituti, caratterizzato da un elevato grado
di omogeneità
tanto più sarò portata a protestare se un bene non è sostituibile, non ha elevato grado di omogeneità
Hirschman dice che anche da un punto di vista politico abbiamo la possibilità della protesta
INCIDE L’OMOGENEITA’ O LA DISOMOGENEITA’ ma anche altri fattori che incidono sulla scelta tra
protestare e defezionare:
-
LEALTA’ nei confronti dell’ente o impresa = la leva che ci permette di proporzionare proteste e
defezioni, sollecitata da diversi fattori:
 tradizione: saper suscitare un certo attaccamento, porta la fedeltà e dunque la lealtà
 possibilità di far sentire la propria voce fornita da parte dell’ente (effetto boomerang)
 dimensione immateriale: quel bene o servizio non mi interessa solo in relazione alla sua
materialità ma perché veicola una serie di ideali
 timore di essere esclusi: fondamentale paura dell’individuo. Freud “il sentimento più
radicato dell’essere umano è la paura di essere abbandonati”
più ci sacrifichiamo ad accedere ad un bene, più siamo leali nei suoi confronti. quanto più ci costa accedere
a quel bene tanto più gli siamo leali
tutti gli ambiti estremamente selettivi lo fanno anche per suscitare lealtà e quindi tasso minimo di
defezione
-
PERCEZIONE sul successo o meno della protesta
la combinazione di queste due strategie (defezione e protesta) è ciò che può portare a far si che noi
sappiamo affrontare la crisi di qualche ente, azienda ecc
un sistema complessivamente inteso tende a funzionare tanto meglio quanto più è possibile lasciar fare le
due strategie al soggetto
il problema si pone quando una delle due strategie, o entrambe, sono escluse o diminuite
Jack Balkin = giurista americano  il problema coi giganti della rete è che
tendenzialmente non ci danno più la possibilità di defezionare o protestare
es: si può davvero defezionare da Google come motore di ricerca? non c’è grande defezione possibile.
La defezione è spesso solo apparente (spesso i social sono di proprietà dello stesso soggetto o obbediscono
allo stesso modello di business)
in più, se abbiamo investito tanto nel creare il proprio profilo o sito è difficile che defezioni
non mi porto via con me quello che è mio quando defeziono dai giganti dell’internet (se defeziono da un
prodotto all’altro mi porto via con me i soldi che avrei investito)
diventa difficile anche protestare online  apparentemente viene data la possibilità di far sentire la propria
voce, il limite è che normalmente questo non sia molto efficace, perché:
-
non c’è trasparenza
non c’è un elevato grado di accountability
in genere le nostre proteste sono accolte solo nella misura in cui possano mettere in discussione il
modello di business dell’ente (ovvero la minaccia di defezione, ma soprattutto la tipologia di dati
che io vado a consegnare)
modello di business = fornire beni e servizi che scambiano talvolta con prezzo, altre con dati
perché Zuckerberg propone il metaverso (estensione un social nella direzione di una piattaforma che abbia
al suo interno realtà virtuale immersiva) = vi sono diverse motivazioni:
-
da un punto di vista economico c’è sempre bisogno di estendere il mercato, una delle motivazioni è
l’investimento economico, per accumulare una differente tipologia di dato (non su ciò che siamo,
ma su ciò che desideriamo)
la dimensione immersiva riguarda la possibilità di creare piattaforme la cui esperienza è contrassegnata
dalla progressiva eliminazione dei contrassegni della realtà.
noi facciamo conoscenza con il virtuale prima della tecnologia:
-
sogni = i loro contenuti sono virtuali
ideali = i contenuti degli ideali sono virtuali
diritto = c’è virtualità nel diritto
ci sono già tanti giuristi che si interrogano su quali siano le norme che si applicano nell’ambito di ciò che
facciamo nella realtà virtuale
Diventa sempre più difficile aggregare le nostre opinioni e azioni in rete, le grandi aziende aggregano i
nostri dati e azioni. l’unica alternativa:
DEFEZIONE RADICALE = suggerita da tanti, in particolare da Jaron Lanier (programmatore, creatore di realtà
virtuale) unica cosa che spingerebbe i giganti del web a cambiare il proprio modello di business
è interessante la radicalità della sua proposta: non uscire da Facebook o twitter, ma da tutti.
la rete è diventata luogo di effetto di lock-in, che tende a creare quella dimensione monopolistica di cui
abbiamo parlato
l’idea che in qualche modo il valore della mia partecipazione dipenda dal fatto che tanti altri partecipino in
questo modo (l’interesse a stare sui social dipende dal fatto che la mia cerchia di amicizie sia lì).
fenomeni distribuiti = fenomeni in cui aggiungere un’unità dello stesso tipo di qualche cosa modifica la
percezione della cosa stessa.
ad un certo punto la quantità diventa qualità
Erich Fromm = superfluo superfluente e superfluo soverchiante
i fenomeni distribuiti possono avvenire anche al contrario = posso avere la percezione di qualche cosa che
da sola non sembra aver valore, ma acquisisce valore come parte di qualcosa di più grande (wikipedia)
effetto manipolativo che spinge la gente a stare nei social senza rendersi conto che il valore del singolo, e il
potere del singolo è minimo, non si soma a quello degli altri. anzi, la nostra libertà è limitata
Lanier = macchina del giudizio  in rete siamo costantemente qualificati, giudicati, trasformati in un
elemento del calcolo che serve per fare valutazioni. questa cosa non potrà mai essere quella piattaforma il
luogo nel quale uno nutre un’autostima se siamo costantemente valutati, valutazioni operate tra l’altro in
maniera implicita.
ciò incide sulle nostre offerte, spesso ci troviamo ad accedere a delle informazioni che sono state già
preselezionate sulla base di algoritmi.
siamo impossibilitati ad esercitare una qualche forma di protesta efficace, non c’è più spazio per protestare
in questo modello.
Norberto Bobbio  quali sono le condizioni minime della democrazia:
-
scegliere insieme delle regole che disciplinano come prendiamo le decisioni collettive
le decisioni collettive si debbono esercitare in relazione ad alternative reali
se io defeziono è perché voglio scegliere un bene che sia disomogeneo rispetto a quello che defeziono.
quindi il problema si vede nella realtà delle alternative  possiamo interrogarci sulla differenza o meno del
modello di business dei diversi social, che è sempre lo stesso, quindi non sono alternative reali
processo di aggregazione dei dati in termini collettivi, non individuali
inglese di defezione, exit = rinvia all’idea di uscire da un luogo e entrare in un altro, che sia differente da
quello da cui siamo usciti
quando Floridi dice che viviamo onlife, diventa difficile l’idea di uscire dall’analogico e entrare nel digitale e
viceversa.
la debolezza di Lanier = non riguarda solo un modello di business ma un modello di vita  quanto tempo
saremmo disposti a non stare in rete?