La Comissió Europea es refereix a la intel·ligència artificial com a “sistemes que despleguen comportament intel·ligent amb algun grau d’autonomia per assolir objectius específics.”[1]1 — “Artificial Intelligence refers to systems that display intelligent behaviour by analysing their environment and taking action — with some degree of autonomy — to achieve specific goals. We are using AI on a daily basis, for example to block email spam or speak with digital assistants.” (EU Commission 2018) Conjuntament amb la robòtica i l’anàlisi de grans dades, representa una de les línies prioritàries de recerca, amb una inversió bilionària.[2]2 — “Public-private partnerships on robotics (‘SPARC’) and big data (‘Big Data Value’) represent EUR 1.2 billion in public investment plus EUR 3.2 billion in private investment for 2014-2020, giving EUR 4.4 billion in total.” (ibid. EU Commission 2018). “Anàlisi de grans dades” no és un terme tècnic. Es refereix a dades que poden ser acumulades, agregades i gestionades per mitjà d’algorismes, i que alimenten els sistemes d’Intel·ligència Artificial.
Les sis V: valor, volum, velocitat, varietat, veracitat i variabilitat són de vegades usades per a definir el concepte. Jo prefereixo parlar de dades i meta-dades estructurades, semi-estructurades i desestructurades que delimiten l’àmbit del web i del denominat dark web, per la seva representació pràctica. Els informes i prediccions de Gartner per 2018 i 2019 situen la intel·ligència artificial, l’ètica i la governabilitat com els punts àlgid del seu hipercicle d´expectatives. L’ètica és un dels punts nous identificats per Gartner com a essencials en els propers cinc anys en el seu popular hipercicle—cicle d’expectatives tecnològiques per al desenvolupament industrial. Per primer cop l’ètica i la governança compten com a elements reguladors en l’hipercicle de 2018. El del 2019, molt recent, confirma aquesta tendència i afegeix un camp emergent crucial: el d’ecosistemes de regulació i compliment amb les regulacions (regulatory compliance).[3]3 — “Establish use-case-based accountability for AI solutions, outcomes and ethics. Develop methods for proactive regulatory compliance and outline reactive responsibilities, actions and procedures in the case of unanticipated and unintended consequences. Plan adaptive governance to support freedom and creativity in data science teams, but also to protect the organization from reputational and regulatory risks. Little or no governance in data science teams to facilitate freedom and creativity is an acceptable approach if this is a conscious governance decision.” Gartner (2019). Svetlana Sicular, Jim Hare, Kenneth Brant, Hype Cycle for Artificial Intelligence, 2019. 25 July 2019 ID: G00369840. Què significa això?
Partiré d’exemples recents de l’impacte de la tecnologia, per centrar-me després en els nous models de regulació que necessitem. Posaré els bous al davant del carro: primer els efectes socials, després els aspectes tècnics.
Alguns exemples
El cas de Cambridge Analytica és el més conegut: la identificació dels perfils dels votants en el cas del Brexit i de les darreres eleccions presidencials nord-americanes. Els votants rebien informació personalitzada d’acord amb el seu perfil sense saber com havien estat prèviament analitzats. Si una empresa és capaç d’agregar totes les dades en xarxa sobre algú per efectuar-ne el perfil sense el seu consentiment, l’empresa adquireix simplement un poder inusitat no solament sobre les dades sinó sobre la persona mateixa, perquè és capaç de controlar els seus sentiments, desitjos i decisions. Com es fa això?
Ho explicava l’enginyer de la companyia Jack Hansom abans que esclatés el cas i retiressin els vídeos i seminaris de YouTube: amb algorismes d’agregació de dades.
“Conèixer una mitjana no ens serveix de gaire, el que volem és realment l’individu. […] Com escalar això? Bé … tradicionalment, el que es feia és una enquesta. Es plantegen un conjunt de preguntes i, al final, podem inferir alguna cosa sobre la personalitat. Però per obtenir una estimació fiable potser calen centenars de persones. (…). El que volem fer, en canvi, és fer servir la informació de Facebook, utilitzant-la com a entrada per a models d’aprenentatge automàtic per poder predir la personalitat i sobrepassar així les enquestes.”
L’estratègia va funcionar. Carole Cadwalladr, la periodista que va revelar les males pràctiques de Cambridge Analytica, ha assenyalat que la manca de control públic de les dades que es recullen i s’analitzen constitueix una amenaça directa per a la democràcia.[4]4 — Vegeu: Cadwalladr, C. «Exposing Cambridge Analytica: “It’s been exhausting, exhilarating, and slightly terrifying”». The Guardian, 28 de setembre del 2018. Cadwalladr, C. «Facebook’s role in Brexit, and the threat to democracy», Ted Talk, 19 d’abril del 2019 Coincideix en això amb altres analistes de l’ús de tècniques d’IA en l’origen de la crisi financera global.[5]5 — O’Neil, C. (2016). Weapons of math destruction: how big data increases inequality and threatens democracy (First edit). New York: Crown, 2016.
El segon exemple és menys conegut, però no menys real: les targes d’identitat basades en les violacions de regulacions corporatives o legals, que s’agreguen en una mena de carta traçable del nostre compliment, per exemple el retrat de la nostra conformitat amb les normes. Són similars als carnets per punts dels codis de circulació o a les targes de crèdit, però conformen una mena de retrat institucional de cada un dels usuaris d’un determinat servei públic. Escoltem l’advertiment que reben els passatgers del tren d’alta velocitat de Beijing a Xangai, enregistrat pel també periodista James O’Malley:
“Benvolguts passatgers, els passatgers que viatgin sense bitllet o es comportin de forma desordenada, o fumin en espais públics, seran castigats d’acord amb els reglaments, i el comportament serà enregistrat en un sistema de crèdit d’informació individual. Per evitar un expedient negatiu de crèdit personal, segueixin si us plau les regulacions pertinents i ajudin a complir les ordres en el tren i a l’estació.” [refernece number=’6′]
Aquest sistema forma part d’un pla del govern xinès per estandarditzar el 2020 un sistema unificat de reputació econòmica i social basat en tècniques d’agregació d’informació a gran escala per a cada ciutadà. Això té conseqüències molt pràctiques. Especialment la creació de llistes negres de “ciutadans desafectes”.
És el que es coneix com a sistemes de vigilància massiva (mass surveillance) de la població. Les conseqüències són severes per a les persones integrades a les llistes de persones desacreditades. Per exemple, només poden fer compres limitades, no poden agafar trens d’alta velocitat o avions, no poden allotjar-se en hotels de luxe, no poden anar de vacances amb agències de viatge, ni enviar els fills a escoles privades. Les sancions són socials i econòmiques, una mena d’ostracisme que impedeix els infractors participar dels beneficis i pujar en l’escala social. [7]7 — Pack, J. «How does China’s social credit system work?» Market Place, 13 de febrer del 2018 Deixant de banda les conseqüències, a la base hi ha els sistemes automàtics de recollida, agregació i gestió de dades.
El tercer exemple és de reconeixement facial, a UK aquest cop, en el si de les democràcies occidentals:
“El 2017, la Policia Metropolitana de Londres va provar un algorisme de reconeixement facial en un carnestoltes d’un milió de visitants per identificar persones a la seva llista de persones en cerca i captura. La tecnologia va marcar 35 “coincidències”. Els examinadors humans en van descartar 30. La policia va detenir els cinc restants. Només un va resultar ser la persona esperada. Per empitjorar les coses, la policia llavors es va adonar que la llista no era actualitzada i que ja no es buscava aquesta persona per cap delicte”. [8]8 — Margetts, H., Dorobantu, C. «Rethink government with AI». Nature 568 (2019), 163-165.
Les condicions ètiques i jurídiques del reconeixement facial—com del biomètric—és un dels temes candents en la filosofia pràctica contemporània. És un tema que no té una solució simple, perquè apunta a l’equilibri entre la llibertat individual i els drets de la privadesa amb els drets a la seguretat col·lectiva.
La redefinició del poder
Aquests exemples mostren que el que és tècnicament possible no sempre és socialment desitjable. Tots els casos anteriors són diferents i responen a dinàmiques d´ús de les dades amb constriccions distintes. Podríem haver-ne descrit alguns altres, referents a la violació de dades, a la reidentificació de dades malgrat els sistemes d’encriptació, i a la ciberseguretat. [9]9 — Per exemple, el cas d’Equifax, als Estats Units. Les dades personals de 145 milions de persones —la meitat de la població adulta dels EUA—van estar exposades a la llum durant mesos. Els pirates informàtics van prendre noms, números de seguretat social, dates de naixement, adreces i informació dels carnets de conduir, i l’empresa no va ser capaç de reaccionar i informar sobre aquest fet sinó molt més tard. Berghel, H. «Equifax and the latest round of identity theft roulette». Computer, 50, 12 (2017), 72-76. Tots són cridaners, però, i tenen un element en comú: mostren la feblesa dels instruments tradicionals del dret, de la política, i de la democràcia participativa clàssica per fer front a aquestes situacions.
Es tracta també de la redefinició del tema del segle XX de la societat de masses (the crowd). Però del que estem parlant, primer de tot, és de la natura canviant del poder que la mou. Jeremy Heimans i Henry Timms han escrit un llibre sobre això, titulat precisament New Power. Proposen redefinir l’exercici del nou poder en relació al vell. Han elaborat el que denominen new power compass, la brúixola del nou poder: flexible, connectat, inexigent, inarticulat, informal, traient profit de la manera com la gent es connecta, participa, comparteix, empatitza amb idees i sentiments, o fuig quan sent massa constriccions, se li imposen deures o senzillament sent que no li agrada el que veu a la pantalla del mòbil, la tauleta o l’ordinador. En canvi, el vell poder és autoritari, repressor, manaire, impositiu, burocràtic, i exigeix obediència. No serveix per triomfar a la xarxa.
El que és complex i nou és la coexistència d’una pluralitat de formes de poder lligades a la tecnologia
De fet, el que és complex i nou és la coexistència d’una pluralitat de formes de poder lligades a la tecnologia, que busquen com sempre l’optimització econòmica i política en benefici propi. Comparteixo la visió de Nigel Shadbolt i Roger Hampson a The Digital Ape (2018). L’espècie avança conformant relacions socials que són alguna cosa més que tecnologia i, malauradament:
“el problema no és que les màquines hagin pogut prendre el control a les elits. El problema és que la majoria de nosaltres no puguem prendre mai el control de les màquines a la gent que mana.” [10]10 — Shadbolt, Nigel, and Roger Hampson (2018). The Digital Ape: How to Live (in Peace) with Smart Machines. Sydney: Pan Macmillan .
Els estats han començat avui a actuar com les corporacions: es defensen, i tendeixen a acaparar els mitjans digitals. No ens cal anar a exemples d’estats d’arrel totalitària com la Xina o la Rússia de Putin. A França l’article 33 de la nova Llei de Reforma de la Justícia [11]11 — LOI n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice. acaba de prohibir l’estudi amb instruments digitals avançats de les sentències judicials completes amb els noms dels magistrats que les emeten, en nom de la privacitat i la protecció de dades (protéction de la vie privée). [12]12 — Vegeu: https://www.legifrance.gouv.fr/eli/loi/2019/3/23/2019-222/jo/article_33 https://www.legifrance.gouv.fr/eli/loi/2019/3/23/JUST1806695L/jo/article_33 https://www.legifrance.gouv.fr/eli/loi/2019/3/23/2019-222/jo/article_33
Observem la nova manera de publicar la llei: mitjançant un identificador singular universal, anomenat ELI, European Legislation Identifier. Quan parlem d’identitat parlem de la identificació de les entitats digitals, és a dir, de la representació de la identitat en algorismes i llenguatges semàntics. És igual, a aquests efectes, si es tracta de persones, organitzacions o objectes. La ISO/IEC 24760-1 defineix la identitat com “un conjunt d’atributs relacionats amb una entitat, a set of attributes related to an entity“. La identitat es un punt essencial. L’Institut Nacional de Standards i Tecnologia del Departament Nord-americà de Comerç també ho ha deixat clar: “accedir a un servei digital no significa que es conegui la identitat del subjecte en la vida real”. [13]13 — “Digital identity is the unique representation of a subject engaged in an online transaction. A digital identity is always unique in the context of a digital service, but does not necessarily need to uniquely identify the subject in all contexts. In other words, accessing a digital service may not mean that the subject’s real-life identity is known.” Grassi, P.A., Garcia, M.E., Fenton, J.L. Digital Identity Guidelines. NIST Special Publication 800-63-3.
El que voldria assenyalar és que les noves formes de poder impliquen el domini d’aquests llenguatges de representació i de les tècniques d’autentificació, encriptació i privadesa, perquè són ells els que estructuren la possible relació entre les entitats digitals i les reals. És a dir, gestionen la referència i co-referència dels mots i discursos que fins ara fluïen només a través de les llengües naturals.
Qui domina la relació entre dades i metadades dels elements d’un sistema també és capaç de construir el seu poder d’implementació
Per a dir-ho de forma simple: qui domina la relació entre dades i metadades dels elements d’un sistema també és capaç de construir el seu poder d’implementació, és a dir, l’abast de l’ecosistema de la seva utilització. I aquesta és una relació asimètrica: els ciutadans, consumidors, usuaris, poden ser totalment identificats i els escenaris i contextos perfilats, però rarament poden obtenir el coneixement general que el sistema i els administradors del sistema posseeixen.
Ecosistemes ètics i jurídics, més que no pas models normatius
Aquesta és la raó que no puguem usar només sistemes de valors, principis o normes per a regular aquest híbrid complex que formem amb les nostres dades i metadades. És igual si es tracta de sistemes ètics o jurídics. Hi ha (i) aquest element intermedi dels llenguatges semiformals i formals que no podem obviar (si és que volem evitar o pal·liar si mes no casos com els que hem descrit abans), (ii) el terreny intermedi de la construcció de l’espai públic i la coordinació col·lectiva de conductes a partir de les decisions i accions individuals.
Com hem vist, l’ètica en Intel·ligència Artificial és un dels punts nous identificats per Gartner com a essencials en els propers cinc anys. Per primer cop l’ètica i la governança compten com a elements reguladors. Però com? Com incorporar principis ètics i proteccions jurídiques dins de sistemes de conducta (artificial i humana)?
L’estratègia tradicional posada en obra per a fer-ho és elaborar una sèrie de principis generals, que poden ser desenvolupats a través de sistemes regulatius, per exemple sistemes de normes que permetin el seu compliment. Entre molts altres exemples, Europa, Regne Unit, els EUA i Austràlia estan elaborant una sèrie de principis ètics per a ser aplicats a la legislació de IA. Els principis de transparència [transparency], responsabilitat o rendiment de comptes [accountability], com també el d’explicabilitat dels algorismes [explainability], pretenen anar més enllà de la protecció oferta per les bones pràctiques professionals, ISOs industrials, estàndards professionals, i els FIPs (Federal Information Processing Standards). Aquesta és la intenció si més no de la recent General Data Protection Regulation (EU) 2016/679 (GDPR) que va entrar en vigor el 25 de maig del 2018 a Europa, i que inclou expressament la denominada protecció de dades mitjançant disseny (Data Protection by Design). El compliment mitjançant el disseny (Compliance by Design) és una altra de les estratègies, explorada en diversos projectes europeus i en diverses iniciatives empresarials i jurídiques.
Els sistemes jurídics normatius tradicionals han d’adaptar-se també a uns instruments els efectes socials dels quals no poden ser encara predeterminats de forma precisa
No poso en dubte que aquesta formalització constitueixi una bona via per assolir els objectius de preservar els drets individuals. Només assenyalo que la seva aplicació requereix també alguna cosa més, perquè és la natura social i política d’aquests principis el que s’ha de concretar, i això només es pot fer des del nivell de les interrelacions i interfícies entre els éssers humans i les màquines. Dit d’una altra manera: les lleis i els sistemes jurídics normatius tradicionals han de ser també modificats per adaptar-se a uns instruments els efectes socials dels quals no poden ser encara predeterminats de forma precisa.
El que hem denominat meso-nivell [14]14 — Poblet, M., Casanovas, P., Rodríguez-Doncel, V. Linked Democracy. Foundations, methodologies, applications. Cham: Springer Nature, 2019. i middle-out approach [15]15 — Pagallo, U., Casanovas, P. and Madelin, R. (2019). “The middle-out approach: assessing models of legal governance in data protection, artificial intelligence, and the Web of Data.” The Theory and Practice of Legislation, pp.1-25. es refereix al conjunt de mitjans tècnics i humans que hem de posar en obra per a construir una comunitat, un sistema sociotècnic o un grup humà que utilitzi tecnologia. També em sembla que és en allò que hauríem de centrar-nos si és que volem posar una mica d’ordre en l’aplicació de la Intel·ligència Artificial als sistemes regulatius ja existents.
Els juristes i filòsofs polítics dels segles XVIII, XIX i XX es van acostumar a lligar el concepte d’autoritat a l’estat o als representants del govern escollit pels ciutadans (Parlament). De fet, l’autoritat pot relacionar-se amb el mercat, o amb la societat en el seu conjunt també. La idea que ens pot guiar és la de trobar un equilibri entre totes aquestes fonts d’autoritat, incloent-hi el que l’individu pot decidir sobre si mateix (i això darrer és essencial). En un món hiperconnectat, els objectes fan de canal de transmissió de la informació. Cada un dels objectes quotidians que ens envolten transmetran en un futur gens llunyà informació sobre els seus usuaris: cotxes, neveres o torradores del pa. Com ens enfrontarem a això i al món de la nanotecnologia (microprocessadors) que els acompanyarà? Literalment no ho podem saber ara.
Els límits han de venir no de restriccions sinó de les decisions conscients sobre com integrar-se en els diversos escenaris i contextos socials. Un altre cop la identitat: preservar-la s’ha convertit en una prioritat. I això significa poder definir (fins al punt on sigui possible) les relacions entre les entitats, els atributs i els valors dels atributs que configuren la nostra identitat digital i personal. No és senzill, perquè els múltiples punts de suport amb les xarxes personals i socials ja formen un continu del que és difícil desfer-se. La idea seria integrar tots aquests escenaris de forma controlable per tots i cada un dels individus que els experimenten. Això és: trobar punts policèntrics per la pluralitat d’ecosistemes que formaran la nostra vida, i consensuar els ecosistemes de regulació.
Democràcia enllaçada: un model de democràcia possible
És el que he denominat meta-rule of law. [16]16 — Casanovas, P. Sub lege pugnamus. De la gran guerra a les grans dades. Barcelona: Publicacions de la Universitat de Barcelona, 2017. No té traducció al català, perquè la nostra cultura jurídica és continental, de dret civil i administratiu francès, i per tant traduir aquesta expressió per “meta-estat de dret” no es acurat. Seria millor denominar-la “estructura ètica” o “estat de drets”, perquè es tracta de centrar-se en els drets, es a dir, en les expectatives de conducta que els nostres interlocutors, veïns i contraprestadors tenen de nosaltres i nosaltres d’ells. Hi ha un mínim de protecció possible, que defineix l’àmbit d’allò que els sistemes regulatius abasten.
L’objectiu es estendre i encabir en l’estructura del Web de les Dades (dades/metadades, i serveis web) les proteccions i garanties dels drets per mitjà d’instruments semàntics i els algorismes de IA que puguem aplicar-hi (aprenentatge automàtic, machine learning, privadesa etc. ). Fixem-nos que els drets i obligacions no són creats pels llenguatges formals, sinó per les interrelacions (individuals i col·lectives) entre els membres de comunitats socials, els mercats i la societat civil. Però la cadena de transmissió s’inicia amb els identificadors.
Definim mínimament els termes:
- La Web de les Dades està formada per qualsevol dada disponible, en brut, semiestructurada o estructurada en un llenguatge formal, via APIs (application program interfaces) o fluxos d’informació de la Internet de les Coses.
- Linked data, dades enllaçades o vinculades, és un subconjunt del primer per publicar i compartir dades en xarxa, seguint les regles clàssiques proposades per Tim Berners-Lee i desenvolupades per la comunitat tecnològica del W3C (World Wide Web). [17]17 — https://www.w3.org/DesignIssues/LinkedData.html La web de les dades no s’hauria de confondre amb Internet. La primera es semàntica, composta per fluxos d’informació que s’han de regular. El segon és el seu suport físic, un conjunt de tecnologies de la comunicació.
- La democràcia deliberativa es defineix des dels anys noranta com “un conjunt de processos d’avaluació, i de formació i transformació de preferències a través d’un diàleg informat, respectuós i competent”. [18]18 — Dryzek JS., Niemeyer N. «Deliberative Turns» (2009). In J. Dryzek, editor, Foundations and Frontiers of Deliberative Governance. Oxford: Oxford Scholarship Online, 2009, 3–17. No vol limitar-se doncs al procés formal del vot. La democràcia epistèmica segueix aquest camí, i ha estat defensada per autors com Jeremy Waldron o Josiah Ober. Assumeix que existeix un procés de decisió col·lectiva que pot produir resultats epistèmicament vàlids (vertaders) o decisions raonables, fonamentades o adequades en major mesura a partir de la participació d’un major nombre de persones.
- Els processos polítics de crowdfunding i crowdsourcing es basen en aquest pressupòsit, i també els mètodes d’assemblees populars (mini-públics). El que estem proposant és anar una mica mes enllà dels conceptes de democràcia deliberativa o de democràcia epistèmica.
- Linked democracy, democràcia enllaçada, és el concepte amb què ens referim a la interrelació entre un grup de gent, la tecnologia i les dades per tal de crear ecosistemes de participació on el coneixement és agregat, compartit i alineat per prendre decisions i crear línies d’actuació política i social. [19]19 — Poblet, M., Casanovas, P., Rodríguez-Doncel, V. Linked Democracy. Foundations, methodologies, applications. Cham: Springer Nature, 2019.
La democràcia enllaçada: (i) estableix i estudia les condicions contextuals de la democràcia deliberativa i epistèmica, (ii) se situa en el meso-nivell intermedi d’implementació tal i com l’hem definit, (iii) requereix la interfície d’humans i màquines, (iv) adreça el nivell institucional que el pot regular i donar forma.
Els ecosistemes democràtics són contextuals, referits als sistemes d’interacció (mesonivell) en xarxa. I poden interrelacionar-se al seu torn per a produir coneixement i decisions polítiques socialment rellevants. Aquesta concepció és similar a la de la democràcia epistèmica, però està més basada en innovacions socials que poden dur a una participació centrada en l’ús compartit de les tecnologies per resoldre problemes comuns. La preservació dels drets dels individus en aquest procés és el que he denominat, no “estat de dret” sinó estat de drets. [20]20 — Casanovas, P. Sub lege pugnamus. De la gran guerra a les grans dades. Barcelona: Publicacions de la Universitat de Barcelona, 2017.
Els ecosistemes jurídics apunten cap aquesta direcció. No es tracta ja de regular només amb els instruments tradicionals, lleis, reglaments, principis, sinó d’aprofitar els elements que la Intel·ligència Artificial ofereix per a crear sistemes de regulació estables, auto-sostenibles i consensuats. Comprèn diversos tipus normatius, des dels instruments tradicionals de les lleis i reglaments fins a instruments de dret “suau” (acords i negociacions), polítiques públiques, estàndards industrials i protocols tècnics.
Aquesta és una visió institucionalista, certament, però és millor que la d’esperar que les polítiques públiques econòmiques (sistemes impositius), migratòries (sistemes d’accés a la residència i a la nacionalitat), de salut (organització i transmissió dels expedients sanitaris), i criminals (organització dels expedients policials i penals) puguin ser automatitzades sense participació ni discussió pública per part de la ciutadania. Com hem vist, aquesta és una via perfectament factible també. Evitar-la, és a les nostres mans.
-
Referències
1 —“Artificial Intelligence refers to systems that display intelligent behaviour by analysing their environment and taking action — with some degree of autonomy — to achieve specific goals. We are using AI on a daily basis, for example to block email spam or speak with digital assistants.” (EU Commission 2018)
2 —“Public-private partnerships on robotics (‘SPARC’) and big data (‘Big Data Value’) represent EUR 1.2 billion in public investment plus EUR 3.2 billion in private investment for 2014-2020, giving EUR 4.4 billion in total.” (ibid. EU Commission 2018).
3 —“Establish use-case-based accountability for AI solutions, outcomes and ethics. Develop methods for proactive regulatory compliance and outline reactive responsibilities, actions and procedures in the case of unanticipated and unintended consequences. Plan adaptive governance to support freedom and creativity in data science teams, but also to protect the organization from reputational and regulatory risks. Little or no governance in data science teams to facilitate freedom and creativity is an acceptable approach if this is a conscious governance decision.” Gartner (2019). Svetlana Sicular, Jim Hare, Kenneth Brant, Hype Cycle for Artificial Intelligence, 2019. 25 July 2019 ID: G00369840.
4 —Vegeu:
- Cadwalladr, C. «Exposing Cambridge Analytica: “It’s been exhausting, exhilarating, and slightly terrifying”». The Guardian, 28 de setembre del 2018.
- Cadwalladr, C. «Facebook’s role in Brexit, and the threat to democracy», Ted Talk, 19 d’abril del 2019
5 —O’Neil, C. (2016). Weapons of math destruction: how big data increases inequality and threatens democracy (First edit). New York: Crown, 2016.
6 —Enregistrat per James O’Malley el 18 dóctubre del 2018, a les 12.24 am. L’anglès original, amb sintaxi xinesa, sense preposicions, és aquest: “Dear passangers, people who travel without a ticket, or behver disorderly, or smoke in public areas, will be punished according to regulations, and the behaviour will be recorded in individual credit information system. To avoid a negative record of personal credit, please follow the relevant regulations and help with the orders on the train and at the station”.
7 —Pack, J. «How does China’s social credit system work?» Market Place, 13 de febrer del 2018
8 —Margetts, H., Dorobantu, C. «Rethink government with AI». Nature 568 (2019), 163-165.
9 —Per exemple, el cas d’Equifax, als Estats Units. Les dades personals de 145 milions de persones —la meitat de la població adulta dels EUA—van estar exposades a la llum durant mesos. Els pirates informàtics van prendre noms, números de seguretat social, dates de naixement, adreces i informació dels carnets de conduir, i l’empresa no va ser capaç de reaccionar i informar sobre aquest fet sinó molt més tard. Berghel, H. «Equifax and the latest round of identity theft roulette». Computer, 50, 12 (2017), 72-76.
10 —Shadbolt, Nigel, and Roger Hampson (2018). The Digital Ape: How to Live (in Peace) with Smart Machines. Sydney: Pan Macmillan .
11 —LOI n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice.
12 —Vegeu:
13 —“Digital identity is the unique representation of a subject engaged in an online transaction. A digital identity is always unique in the context of a digital service, but does not necessarily need to uniquely identify the subject in all contexts. In other words, accessing a digital service may not mean that the subject’s real-life identity is known.” Grassi, P.A., Garcia, M.E., Fenton, J.L. Digital Identity Guidelines. NIST Special Publication 800-63-3.
14 —Poblet, M., Casanovas, P., Rodríguez-Doncel, V. Linked Democracy. Foundations, methodologies, applications. Cham: Springer Nature, 2019.
15 —Pagallo, U., Casanovas, P. and Madelin, R. (2019). “The middle-out approach: assessing models of legal governance in data protection, artificial intelligence, and the Web of Data.” The Theory and Practice of Legislation, pp.1-25.
16 —Casanovas, P. Sub lege pugnamus. De la gran guerra a les grans dades. Barcelona: Publicacions de la Universitat de Barcelona, 2017.
18 —Dryzek JS., Niemeyer N. «Deliberative Turns» (2009). In J. Dryzek, editor, Foundations and Frontiers of Deliberative Governance. Oxford: Oxford Scholarship Online, 2009, 3–17.
19 —Poblet, M., Casanovas, P., Rodríguez-Doncel, V. Linked Democracy. Foundations, methodologies, applications. Cham: Springer Nature, 2019.
20 —Casanovas, P. Sub lege pugnamus. De la gran guerra a les grans dades. Barcelona: Publicacions de la Universitat de Barcelona, 2017.
-
Agraïments
Aquest article s’emmarca dins del Projecte Meta-Rule of Law (DER2016-78108-P), del Ministeri d’Economia i Innovació. L’article ha estat escrit a partir de de la conferència convidada al V Congrés Català de Filosofia, 20 Juny 2019, Canillo, Andorra (Videoconferència), i de la conferencia convidada per celebrar els tres-cents anys dels Mossos d’Esquadra a l’Escola de la Policia de Mollet del Vallès el dia 27 de setembre del 2019. He utilitzat materials provinents del Projecte sobre Compliance through Design, Data to Decisions Cooperative Research Centre (D2D CRC, Australia); i EU Project LYNX. Building the Legal Knowledge Graph for Smart Compliance Services in Multilingual Europe (Grant agreement No 780602).

Pompeu Casanovas
El Dr. Pompeu Casanovas és Director de Recerca Avançada, professor de Filosofia i Sociologia del Dret a la Facultat de Dret de la UAB, fundador i president de l'IDT-UAB. Té vint anys d'experiència en recerca sobre sociologia del dret i filosofia, pragmàtica i IA i dret. Ha estat Investigador Principal de més de 50 projectes nacionals, europeus i internacionals. Ha publicat 10 llibres i més de 150 articles científics en les seves àrees d'interès. Les seves publicacions recents tenen a veure amb el desenvolupament d'ontologies legals per implementar tecnologies semàntiques de web; models de governança per implementar la seguretat i la protecció de dades a la Web; mediació, Online Dispute Resolution (ODR) i crowdsourcing per fomentar la participació democràtica ciutadana.