{"id":10386,"date":"2020-02-20T09:21:37","date_gmt":"2020-02-20T09:21:37","guid":{"rendered":"https:\/\/revistaidees.cat\/reflexio-sobre-letica-en-letica-de-la-ia\/"},"modified":"2020-03-05T16:26:06","modified_gmt":"2020-03-05T16:26:06","slug":"reflexio-sobre-letica-en-letica-de-la-ia","status":"publish","type":"post","link":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/","title":{"rendered":"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA"},"content":{"rendered":"\n<p>A principios de 2019 una gran consultora internacional identific\u00f3 al \u00ab\u00e9tico de la IA\u00bb como un cargo fundamental para que las empresas apliquen correctamente la inteligencia artificial (IA). Sostiene que los \u00e9ticos de la IA son necesarios para ayudar a las empresas a explorar las cuestiones \u00e9ticas y sociales que plantea el uso de la IA <span class=\"note-item\"><a href=\"#note-01\" class=\"scroll-to\">[1]<\/a><span class=\"note-item-tooltip\">1 \u2014 KPMG (2019) Top 5 AI hires companies need to succeed in 2019.\n<\/span><\/span>. La opini\u00f3n de que la IA es positiva y, aun as\u00ed, potencialmente <em>peligrosa <\/em>para los individuos y la sociedad es muy compartida por el sector, los c\u00edrculos acad\u00e9micos, los gobiernos y las organizaciones de la sociedad civil. En consecuencia, y con el fin de materializar las ventajas y al mismo tiempo esquivar los obst\u00e1culos \u00e9ticos y los efectos nefastos, se han puesto en marcha numerosas iniciativas para) examinar las dimensiones \u00e9tica, social, jur\u00eddica y pol\u00edtica de la IA y b) elaborar unas directrices y recomendaciones \u00e9ticas para el dise\u00f1o y la aplicaci\u00f3n de la IA  <span class=\"note-item\"><a href=\"#note-02\" class=\"scroll-to\">[2]<\/a><span class=\"note-item-tooltip\">2 \u2014 AlgorithmWatch ha elaborado una lista de marcos y directrices \u00e9ticas disponible en:<br \/>\n<a href=\"https:\/\/algorithmwatch.org\/en\/project\/ai-ethics-guidelines-global-inventory\/\" rel=\"nofollow\">https:\/\/algorithmwatch.org\/en\/project\/ai-ethics-guidelines-global-inventory\/<\/a>.\n<\/span><\/span>.<\/p>\n\n\n\n<p>Sin embargo, a veces las cuestiones terminol\u00f3gicas dificultan el an\u00e1lisis profundo de los problemas \u00e9ticos de la IA. Las definiciones de <em>inteligencia <\/em>e <em>inteligencia artificial<\/em> a menudo son imprecisas y las diferentes interpretaciones de estos t\u00e9rminos destacan diferentes inquietudes. Para evitar la confusi\u00f3n y el riesgo de que todo acabe siendo un di\u00e1logo de sordos, cualquier debate constructivo sobre la \u00e9tica de la IA exige que se explique la definici\u00f3n d&#8217;IA que se utiliza y tambi\u00e9n que se especifique el tipo d&#8217;IA sobre el cual se debate. Con respecto a la definici\u00f3n, consultamos el Grupo Europeo de \u00c9tica de la Ciencia y de las Nuevas Tecnolog\u00edas de la Comisi\u00f3n Europea, que define la IA como los \u00absistemas de software (y posiblemente tambi\u00e9n de hardware) dise\u00f1ados por seres humanos que, dado un objetivo complejo, act\u00faan en la dimensi\u00f3n f\u00edsica o digital percibiendo su entorno mediante la adquisici\u00f3n de datos, interpretando los [datos\u2026 ]recopilados, razonando sobre el conocimiento o procesando la informaci\u00f3n derivada de estos datos y decidiendo cu\u00e1les son las mejores medidas que hay que tomar para alcanzar un objetivo determinado. Los sistemas d&#8217;IA pueden utilizar reglas simb\u00f3licas o aprender un modelo num\u00e9rico y tambi\u00e9n pueden adaptar su conducta analizando el impacto de sus acciones anteriores sobre el entorno\u00bb  <span class=\"note-item\"><a href=\"#note-03\" class=\"scroll-to\">[3]<\/a><span class=\"note-item-tooltip\">3 \u2014 European Commission High-Level Expert Group on Artificial Intelligence [AI HLEG] (2019) Ethics guidelines for trustworthy AI. European Commission.\n<\/span><\/span>.<\/p>\n\n\n\n<p>Para ofrecer orientaci\u00f3n y recomendaciones espec\u00edficas, el an\u00e1lisis \u00e9tico de la IA tambi\u00e9n tiene que especificar la <em>tecnolog\u00eda <\/em>(por ejemplo, veh\u00edculos aut\u00f3nomos, sistemas de recomendaci\u00f3n, etc.), los <em>m\u00e9todos <\/em>(por ejemplo, aprendizaje profundo, aprendizaje de refuerzo, etc.) y los <em>sectores de aplicaci\u00f3n<\/em> (por ejemplo, atenci\u00f3n sanitaria, finanzas, noticias, etc.). En este art\u00edculo nos centraremos en las cuestiones \u00e9ticas relacionadas con la <em>IA aut\u00f3noma<\/em>, es decir, los agentes artificiales que pueden decidir y actuar independientemente de la intervenci\u00f3n humana, e ilustraremos las cuestiones \u00e9ticas de la IA aut\u00f3noma con un gran n\u00famero de ejemplos.<\/p>\n\n\n\n<p>Fij\u00e9monos primero en el caso de los veh\u00edculos aut\u00f3nomos (VA). La posibilidad de que haya escenarios de accidentes con VA implicados, en el que inevitablemente pasajeros o peatones resultar\u00edan heridos, ha obligado los investigadores y desarrolladores a reflexionar sobre cuestiones relativas a la aceptabilidad \u00e9tica de las decisiones tomadas por los VA, como qu\u00e9 decisiones tienen que tomar los VA en estos casos, c\u00f3mo se pueden justificar estas decisiones, qu\u00e9 valores reflejan los VA y sus decisiones, etc. <span class=\"note-item\"><a href=\"#note-04\" class=\"scroll-to\">[4]<\/a><span class=\"note-item-tooltip\">4 \u2014 El tipo de escenarios de accidentes se conece como \u00abel dilema de la vagoneta\u00bb. Es tan solo uno de los temas que se debaten en la \u00e9tica de los veh\u00edculos aut\u00f3nomos y lo ponemos de ejemplo s\u00f3lo para ilustrar uno de los numerosos problemas \u00e9ticos que la IA aut\u00f3noma podria plantear. V\u00e9ase:\n\nLin, P. (2016) Why ethics matters for autonomous cars. In M. Maurer, J. Gerdes, B. Lenz, &amp; H. Winner (Eds.), Autonomous Driving: Technical, Legal and Social Aspects (pp. 69-85). Berlin: Springer.\nKeeling, G. (2019) Why trolley problems matter for the ethics of automated vehicles. Science and Engineering Ethics.\n\n<\/span><\/span>.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>Los algoritmos de contrataci\u00f3n acostumbran a funcionar aplicando los criterios que han aprendido de un conjunto de datos de entrenamiento. Lamentablemente, estos datos de entrenamiento pueden ser sesgados y dar lugar a modelos potencialmente discriminatorios.<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>Todav\u00eda mejor, fij\u00e9monos en el caso de los algoritmos de contrataci\u00f3n, que se han introducido para automatizar el proceso de recomendaci\u00f3n, preselecci\u00f3n y quiz\u00e1s incluso selecci\u00f3n de candidatos de un trabajo. Los algoritmos de contrataci\u00f3n acostumbran a funcionar aplicando los criterios que han aprendido de un conjunto de datos de entrenamiento. Lamentablemente, estos datos de entrenamiento pueden ser sesgados y dar lugar a modelos potencialmente discriminatorios <span class=\"note-item\"><a href=\"#note-05\" class=\"scroll-to\">[5]<\/a><span class=\"note-item-tooltip\">5 \u2014 Bogen, M. (2019) All the ways hiring algorithms can introduce bias. Harvard Business Review, May 6, 2019.\n<\/span><\/span>.<\/p>\n\n\n\n<p>Con el fin de garantizar la protecci\u00f3n contra la discriminaci\u00f3n, que no s\u00f3lo es un derecho humano sino que est\u00e1 incluida en las constituciones de muchos pa\u00edses, nos tenemos que asegurar de que estos algoritmos son, como m\u00ednimo, no discriminatorios e idealmente tambi\u00e9n <em>equitativos<\/em>. Sin embargo, la equidad tiene diferentes interpretaciones: las personas discrepan sobre el significado de la equidad, pero adem\u00e1s el concepto de equidad tambi\u00e9n puede depender del contexto. Todav\u00eda m\u00e1s, se ha demostrado que no se pueden obtener diferentes par\u00e1metros de equidad de manera simult\u00e1nea  <span class=\"note-item\"><a href=\"#note-06\" class=\"scroll-to\">[6]<\/a><span class=\"note-item-tooltip\">6 \u2014 V\u00e9ase:\n\nFriedler, S., Scheidegger, C., &amp; Venkatasubramanian, S. (2016) On the (Im)possibility of fairness. arXiv:1609.07236.\nChouldechova, A. (2017). Fair prediction with disparate impact: a study of bias in recidivism prediction instruments. Big Data 5(2): 153-163.\nWong, P.-H. (2019) Democratizing algorithmic fairness. Philosophy &amp; Technology.\n\n<\/span><\/span>. Eso plantea la cuesti\u00f3n de c\u00f3mo se tienen que concebir valores como la equidad en qu\u00e9 contexto y c\u00f3mo se pueden aplicar.<\/p>\n<\/div>\n<\/div>\n\n\n\n<p>Por lo tanto, una de las cuestiones fundamentales de la \u00e9tica de la IA se puede formular como un problema de alineaci\u00f3n de valores: c\u00f3mo podemos crear una IA aut\u00f3noma alineada con los valores arraigados en la sociedad <span class=\"note-item\"><a href=\"#note-07\" class=\"scroll-to\">[7]<\/a><span class=\"note-item-tooltip\">7 \u2014 El problema de la alineaci\u00f3n de la IA lo formul\u00f3 expl\u00edcitamente por primera vez Stuart Russell en 2014. V\u00e9ase:\n\nPeterson, M. (2019) The value alignment problem: a geometric approach. Ethics and Information Technology 21 (1): 19-28.\n\n<\/span><\/span>. Virginia Dignum ha distinguido tres dimensiones de la \u00e9tica de la IA: el \u00ab\u00e9tica por dise\u00f1o\u00bb, el \u00ab\u00e9tica en el dise\u00f1o\u00bb y el \u00ab\u00e9tica para el dise\u00f1o\u00bb <span class=\"note-item\"><a href=\"#note-08\" class=\"scroll-to\">[8]<\/a><span class=\"note-item-tooltip\">8 \u2014 Dignum, V. (2018) Ethics in artificial intelligence: introduction to the special issue. Ethics and Information Technology 20 (1): 1-3.\n<\/span><\/span>, que sirven para identificar dos respuestas diferentes al problema de la alineaci\u00f3n de valores. Estructuraremos el an\u00e1lisis siguiente de acuerdo con las tres dimensiones mencionadas y exploraremos m\u00e1s detalladamente las dos v\u00edas diferentes para responder al problema de la alineaci\u00f3n de valores.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Crear una IA \u00e9tica: perspectivas y limitaciones<\/h5>\n\n\n\n<p>La \u00e9tica por dise\u00f1o es \u00abla integraci\u00f3n t\u00e9cnica\/algor\u00edtmica de la capacidad de razonamiento como parte de la conducta de [la IA aut\u00f3noma]\u00bb <span class=\"note-item\"><a href=\"#note-09\" class=\"scroll-to\">[9]<\/a><span class=\"note-item-tooltip\"><\/span><\/span>. Esta l\u00ednea de investigaci\u00f3n tambi\u00e9n se llama \u00ab\u00e9tica de las m\u00e1quinas\u00bb y aspira a crear agentes morales artificiales, que son agentes artificiales con capacidad \u00e9tica y pueden tomar decisiones \u00e9ticas sin la intervenci\u00f3n humana <span class=\"note-item\"><a href=\"#note-010\" class=\"scroll-to\">[10]<\/a><span class=\"note-item-tooltip\">10 \u2014 V\u00e9ase:\n\nWinfield, A., Michael, K., Pitt, J., &amp; Evers, V. (2019) Machine ethics: the design and governance of ethical AI and autonomous systems. Proceedings of the IEEE 107 (3): 509-517.\nWallach, W., &amp; Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. New York: Oxford University Press.\nMisselhorn, C. (2018) Artificial morality. concepts, issues and challenges. Society 55 (2): 161-169.\n\n<\/span><\/span>. As\u00ed pues, la \u00e9tica de las m\u00e1quinas responde al problema de la alineaci\u00f3n de valores con la creaci\u00f3n de una IA aut\u00f3noma que por s\u00ed sola se alinea con los valores humanos. Ilustramos esta perspectiva con los ejemplos de los VA y los algoritmos de contrataci\u00f3n: los investigadores y desarrolladores se esfuerzan por crear VA que puedan razonar sobre la decisi\u00f3n moralmente correcta y actuar en consecuencia en escenarios en que se provoque un da\u00f1o inevitable. Asimismo, se supone que los algoritmos de contrataci\u00f3n toman decisiones no discriminatorias sin la intervenci\u00f3n humana.<\/p>\n\n\n\n<p>Wendell Wallach y Colin Allen definieron tres tipos de aproximaciones a la \u00e9tica de las m\u00e1quinas en su libro seminal <em>Moral machines<\/em> <span class=\"note-item\"><a href=\"#note-011\" class=\"scroll-to\">[11]<\/a><span class=\"note-item-tooltip\">11 \u2014 Wallach, W., &amp; Allen, C. (2009). Moral Machines: Teaching Robots Right from Wrong. New York: Oxford University Press.\n<\/span><\/span>. Los tres tipos de aproximaciones son, respectivamente (y) aproximaciones descendentes, (ii) aproximaciones ascendentes y (iii) aproximaciones h\u00edbridas, que combinan las aproximaciones descendentes y ascendentes. En su forma m\u00e1s sencilla, la aproximaci\u00f3n descendente intenta formalizar y aplicar una teor\u00eda \u00e9tica concreta a la IA aut\u00f3noma, mientras que la aproximaci\u00f3n ascendente pretende crear una IA aut\u00f3noma que pueda aprender del entorno o a partir de una serie de ejemplos qu\u00e9 es moralmente correcto o no. En \u00faltimo lugar, la aproximaci\u00f3n h\u00edbrida combina t\u00e9cnicas y estrategias tanto de la aproximaci\u00f3n descendente como de la ascendiente <span class=\"note-item\"><a href=\"#note-012\" class=\"scroll-to\">[12]<\/a><span class=\"note-item-tooltip\">12 \u2014 \u00cdbid., p. 79-81\n<\/span><\/span>.<\/p>\n\n\n\n<p>Estas aproximaciones, sin embargo, est\u00e1n sujetas a algunas limitaciones <em>te\u00f3ricas <\/em>y <em>t\u00e9cnicas<\/em>. Por ejemplo, las aproximaciones descendentes tienen que superar el reto de encontrar y defender una teor\u00eda \u00e9tica incontrovertible entre tradiciones filos\u00f3ficas <em>contradictorias<\/em>. Si no, la IA \u00e9tica corre el riesgo de construirse sobre una base <em>inadecuada <\/em>o incluso <em>falsa<\/em>. Por otra parte, las aproximaciones ascendentes deducen qu\u00e9 es \u00e9tico a partir de aquello que es <em>popular <\/em>o que se considera <em>universalmente <\/em>\u00e9tico en el contexto o entre ejemplos. Con todo, estas deducciones no garantizan que la IA aut\u00f3noma adquiera reglas o principios \u00e9ticos <em>genuinos<\/em>, porque ni la popularidad ni el hecho de que algo se considere \u00e9tico ofrecen una <em>justificaci\u00f3n <\/em>\u00e9tica adecuada <span class=\"note-item\"><a href=\"#note-013\" class=\"scroll-to\">[13]<\/a><span class=\"note-item-tooltip\">13 \u2014 Puede encontrarse un an\u00e1lisis de la dificultad \u00e9tica de las m\u00e1quinas en: Cave, S., Nyrup, R., Vold, K., &amp; Weller, A. (2019) Motivations and risks of machine ethics. Proceedings of the IEEE 107 (3): 562-74.\n<\/span><\/span>. Adem\u00e1s, est\u00e1 la dificultad t\u00e9cnica en crear una IA \u00e9tica que pueda discernir con eficacia la informaci\u00f3n \u00e9ticamente relevante de la \u00e9ticamente irrelevante entre la gran cantidad de informaci\u00f3n disponible en un contexto determinado. Esta capacidad ser\u00eda necesaria tanto para la aplicaci\u00f3n correcta de los principios \u00e9ticos en las aproximaciones descendentes como para la adquisici\u00f3n correcta de los principios \u00e9ticos en las aproximaciones ascendentes <span class=\"note-item\"><a href=\"#note-014\" class=\"scroll-to\">[14]<\/a><span class=\"note-item-tooltip\">14 \u2014 Tambi\u00e9n se conoce como el problema del marco moral. V\u00e9ase: Horgan, T., &amp; Timmons, M. (2009) What does the frame problem tell us about moral normativity? Ethical Theory and Moral Practice 12 (1): 25-51.\n<\/span><\/span>.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>La IA aut\u00f3noma en general y la IA \u00e9tica en particular pueden erosionar considerablemente la autonom\u00eda humana porque las decisiones que toman por nosotros o sobre nosotros estar\u00e1n fuera de nuestro control.<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>Aparte de los retos te\u00f3ricos y t\u00e9cnicos, la creaci\u00f3n de IA aut\u00f3noma con capacidades \u00e9ticas ha recibido a algunas cr\u00edticas \u00e9ticas. En primer lugar, la IA aut\u00f3noma en general y la IA \u00e9tica en particular pueden erosionar considerablemente la autonom\u00eda humana porque las decisiones que toman por nosotros o sobre nosotros estar\u00e1n fuera de nuestro control y, por lo tanto, reducir\u00e1n nuestra independencia de las influencias externas <span class=\"note-item\"><a href=\"#note-015\" class=\"scroll-to\">[15]<\/a><span class=\"note-item-tooltip\">15 \u2014 Danaher, J. (2018) Toward an ethics of AI assistants: an initial framework. Philosophy &amp; Technology 31 (4): 629-653.\n<\/span><\/span>. En segundo lugar, no queda claro qui\u00e9n o qu\u00e9 tiene que ser responsable de las decisiones err\u00f3neas que la IA aut\u00f3noma tome, lo cual suscita inquietud en relaci\u00f3n con sus efectos sobre nuestras pr\u00e1cticas de responsabilidad moral <span class=\"note-item\"><a href=\"#note-016\" class=\"scroll-to\">[16]<\/a><span class=\"note-item-tooltip\">16 \u2014 Matthias, A. (2004) The responsibility gap: ascribing responsibility for the actions of learning automata. Ethics and Information Technology 6 (3): 175-83.\n<\/span><\/span>. En \u00faltimo lugar, los investigadores han argumentado que convertir la IA aut\u00f3noma en agentes morales o pacientes morales complica innecesariamente nuestro mundo moral con la introducci\u00f3n de elementos extra\u00f1os que son ajenos a nuestra conciencia moral y, en consecuencia, con la imposici\u00f3n de una carga \u00e9tica innecesaria sobre los seres humanos, ya que nos exige que prestemos una atenci\u00f3n moral excesiva a la IA aut\u00f3noma <span class=\"note-item\"><a href=\"#note-017\" class=\"scroll-to\">[17]<\/a><span class=\"note-item-tooltip\">17 \u2014 Bryson, J. J. (2018) Patiency is not a virtue: the design of intelligent systems and systems of ethics. Ethics and Information Technology 20 (1): 15-26.\n<\/span><\/span>.<\/p>\n<\/div>\n<\/div>\n\n\n\n<h5 class=\"wp-block-heading\">La \u00e9tica de las m\u00e1quinas, la \u00e9tica truncada<\/h5>\n\n\n\n<p>Nuestro an\u00e1lisis de las dificultades te\u00f3ricas, t\u00e9cnicas y \u00e9ticas de la \u00e9tica de las m\u00e1quinas no pretende ser exhaustiva ni conclusiva y, en realidad, estas dificultades se podr\u00edan superar en la investigaci\u00f3n y el desarrollo futuros de la IA aut\u00f3noma. No obstante, creemos que estas dificultades se merecen que nos detengamos y reconsideremos las posibilidades de crear una IA \u00e9tica. De hecho, queremos proponer una cr\u00edtica m\u00e1s fundamental de la \u00e9tica de las m\u00e1quinas antes de explorar otra v\u00eda para responder al problema de alineaci\u00f3n de valores.<\/p>\n\n\n\n<p>Recordemos que el objetivo de la \u00e9tica de las m\u00e1quinas es crear una IA aut\u00f3noma que pueda tomar decisiones \u00e9ticas y actuar con \u00e9tica sin la intervenci\u00f3n humana. Se centra en infundir a la IA aut\u00f3noma la capacidad de tomar decisiones \u00e9ticas y hacer acciones \u00e9ticas, cosa que refleja una interpretaci\u00f3n peculiar de la \u00ab\u00e9tica\u00bb que escogemos cuestionar. M\u00e1s concretamente, si se centra <em>s\u00f3lo <\/em>en la capacidad de decidir y actuar con \u00e9tica, la \u00e9tica de las m\u00e1quinas se expone a una visi\u00f3n <em>truncada <\/em>de la \u00e9tica que considera que las decisiones y acciones \u00e9ticas se pueden separar de sus contextos sociales y relacionales. La fil\u00f3sofa y novelista Iris Murdoch, por ejemplo, hace mucho tiempo argumentaba que la moralidad no tiene nada que ver con \u00abuna serie de elecciones expl\u00edcitas que se producen en una serie de situaciones especificables\u00bb <span class=\"note-item\"><a href=\"#note-018\" class=\"scroll-to\">[18]<\/a><span class=\"note-item-tooltip\">18 \u2014 Murdoch, I. (1956) Vision and choice in morality. Proceedings of the Aristotelian Society, Supplementary 30: 32-58. p. 34\n<\/span><\/span>, sino con la \u00abautorreflexi\u00f3n o actitudes complejas ante la vida que se manifiestan y se elaboran continuamente en el discurso p\u00fablico y privado, pero no se pueden separar temporalmente en situaciones\u00bb <span class=\"note-item\"><a href=\"#note-019\" class=\"scroll-to\">[19]<\/a><span class=\"note-item-tooltip\">19 \u2014 \u00cdbid., p. 40\n<\/span><\/span>. Para Murdoch, aquello que es \u00e9tico est\u00e1 inherentemente vinculado a un trasfondo de valores. Por eso, a la hora de reflexionar sobre la \u00e9tica, es fundamental mirar <em>m\u00e1s all\u00e1<\/em> de la capacidad de decidir y actuar con \u00e9tica y los momentos de la decisi\u00f3n y la acci\u00f3n \u00e9ticas, y fijarse en el trasfondo de valores y los relatos que hay detr\u00e1s de la decisi\u00f3n y la acci\u00f3n. Se han esgrimido argumentos parecidos para reafirmar la funci\u00f3n de los contextos sociales y relacionales a la hora de limitar las decisiones \u00e9ticas y configurar las consecuencias morales y, por lo tanto, la importancia de tenerlos en cuenta en nuestra reflexi\u00f3n \u00e9tica <span class=\"note-item\"><a href=\"#note-020\" class=\"scroll-to\">[20]<\/a><span class=\"note-item-tooltip\">20 \u2014 Walker, M. U. (2007) Moral Understandings: A Feminist Study in Ethics. Oxford: Oxford University Press.\n<\/span><\/span>.<\/p>\n\n\n\n<p>En esta misma l\u00ednea cr\u00edtica, el \u00e9nfasis para infundir las capacidades \u00e9ticas de la IA a la \u00e9tica de las m\u00e1quinas se puede considerar una equivocaci\u00f3n si este \u00e9nfasis eclipsa el hecho de que las consecuencias \u00e9ticas de la IA aut\u00f3noma est\u00e1n determinadas por varios factores interconectados ajenos a su capacidad de razonamiento \u00e9tico, y que hay un proceso dilatado de negociaci\u00f3n social y pol\u00edtica sobre los criterios de correcci\u00f3n e incorrecci\u00f3n que se\u00f1alan las posibles decisiones y acciones \u00e9ticas de la IA aut\u00f3noma. El experimento de la M\u00e1quina Moral, llevado a cabo por investigadores del MIT Media Lab, es un buen ejemplo <span class=\"note-item\"><a href=\"#note-021\" class=\"scroll-to\">[21]<\/a><span class=\"note-item-tooltip\">21 \u2014 Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., &amp; Rahwan, I. (2018) The Moral Machine experiment. Nature 563: 59-64.\n<\/span><\/span>. En el experimento, los investigadores del MIT intentan externalizar las decisiones \u00e9ticas en diferentes escenarios de accidentes con VA implicados y los resultados tienen que servir para orientar el dise\u00f1o \u00e9tico de los VA. Sin embargo, faltan el trasfondo social, cultural y pol\u00edtico y las historias personales de accidentes <em>reales <\/em>que los escenarios de accidentes del experimento no describen \u2014y a menudo no pueden describir\u2014 adecuadamente <span class=\"note-item\"><a href=\"#note-022\" class=\"scroll-to\">[22]<\/a><span class=\"note-item-tooltip\"><\/span><\/span>. En este sentido, el experimento de la M\u00e1quina Moral tambi\u00e9n se basa en una visi\u00f3n truncada de la \u00e9tica, en que <em>s\u00f3lo <\/em>se tiene en cuenta la decisi\u00f3n de que se tiene que tomar en situaciones concretas y olvida el trasfondo de valores y los datos contextuales cruciales para tomar decisiones \u00e9ticas.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>A la hora de reflexionar sobre la \u00e9tica, es fundamental mirar m\u00e1s all\u00e1 de la capacidad de decidir y actuar con \u00e9tica y los momentos de la decisi\u00f3n y la acci\u00f3n \u00e9ticas, y fijarse en el trasfondo de valores y los relatos que hay detr\u00e1s de la decisi\u00f3n y la acci\u00f3n<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>De hecho, los contextos sociales y relacionales son importantes para el an\u00e1lisis \u00e9tico de la IA aut\u00f3noma <em>antes <\/em>y <em>despu\u00e9s<\/em> de su aplicaci\u00f3n. Por ejemplo, se puede dise\u00f1ar un algoritmo de contrataci\u00f3n imparcial, que valore a los candidatos a un puesto de trabajo bas\u00e1ndose <em>s\u00f3lo <\/em>en las cualidades requeridas en una oferta. Aun as\u00ed, este algoritmo de contrataci\u00f3n imparcial podr\u00eda seguir siendo discriminatorio, y por lo tanto \u00e9ticamente discutible, si las cualidades espec\u00edficas requeridas en una oferta est\u00e1n ligadas involuntariamente a la raza, el g\u00e9nero y la clase social. En este caso, hay que ir con cuidado para no reproducir el <em>sesgo social preexistente<\/em> en el algoritmo de contrataci\u00f3n. Adem\u00e1s, incluso las tecnolog\u00edas mejor intencionadas pueden afectar muy negativamente los (no) usuarios, ya que el sesgo y el perjuicio podr\u00edan <em>surgir <\/em>de la interacci\u00f3n entre la tecnolog\u00eda y los usuarios y la sociedad <span class=\"note-item\"><a href=\"#note-023\" class=\"scroll-to\">[23]<\/a><span class=\"note-item-tooltip\">23 \u2014 Friedman, B., &amp; Nissenbaum, H. (1996) Bias in computer systems. ACM Transactions on Information Systems 14 (3): 330-347.\n<\/span><\/span>. Imaginad una aplicaci\u00f3n que los ciudadanos pueden utilizar para denunciar incidentes, como infraestructuras deterioradas, en el ayuntamiento de la ciudad, que a su vez utiliza un algoritmo para ordenar y clasificar los problemas locales seg\u00fan estas denuncias. Si damos por hecho que el acceso a los tel\u00e9fonos inteligentes y, por lo tanto, a la aplicaci\u00f3n tiene una distribuci\u00f3n desigual, eso puede significar una falta de denuncias en las zonas con ciudadanos m\u00e1s pobres. Si este sesgo de los datos de entrada no se tiene en cuenta en la ordenaci\u00f3n y la clasificaci\u00f3n algor\u00edtmicas, las desigualdades entre las zonas m\u00e1s ricas y m\u00e1s pobres de la ciudad podr\u00edan crecer todav\u00eda m\u00e1s <span class=\"note-item\"><a href=\"#note-024\" class=\"scroll-to\">[24]<\/a><span class=\"note-item-tooltip\">24 \u2014 Simon J (2012) E-Democracy and Values in Design. Proceedings of the XXV World Congress of IVR 2012.\n<\/span><\/span>.<\/p>\n<\/div>\n<\/div>\n\n\n\n<p>La lecci\u00f3n principal de estos dos ejemplos es que incluir unas cuantas normas y principios \u00e9ticos en la IA aut\u00f3noma es insuficiente para resolver el problema de alineaci\u00f3n de valores, porque los trasfondos y los contextos <em>s\u00ed <\/em>que contribuyen a nuestra posici\u00f3n global sobre la cual es \u00e9tico. Nos tenemos que acordar de que la IA aut\u00f3noma <em>siempre <\/em>se sit\u00faa en unos contextos sociales y relacionales m\u00e1s amplios y que, por eso, no nos podemos centrar <em>s\u00f3lo <\/em>en su <em>capacidad<\/em> en tomar decisiones y actuar con \u00e9tica. Tenemos que tener en cuenta no s\u00f3lo <em>qu\u00e9 <\/em>decisiones y acciones tiene que hacer la IA aut\u00f3noma, sino tambi\u00e9n (y) <em>por qu\u00e9<\/em> nosotros (o, mejor dicho, la sociedad) creemos que estas decisiones y acciones son \u00e9ticas, (ii) <em>c\u00f3mo <\/em>llegamos a estas conclusiones y (iii) <em>si <\/em>tenemos justificaci\u00f3n para pensar as\u00ed. As\u00ed pues, el experimento de la M\u00e1quina Moral es cuestionable porque supone injustificablemente que la respuesta m\u00e1s <em>intuitiva <\/em>o <em>popular<\/em> a los escenarios de accidentes es la respuesta <em>\u00e9tica<\/em>. En realidad, la reformulaci\u00f3n de las preguntas nos ofrece dos ventajas. Primero, ahora podemos incluir f\u00e1cilmente otras partes y factores <em>adem\u00e1s de<\/em> la IA aut\u00f3noma en nuestra reflexi\u00f3n \u00e9tica. Segon, tambi\u00e9n explicita la posibilidad de (re)negociar qu\u00e9 reglas o qu\u00e9 principios \u00e9ticos se tienen que incluir en la IA aut\u00f3noma (o incluso cuestionar el uso de la IA aut\u00f3noma en un contexto concreto).<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Una \u00e9tica distribuida de la IA<\/h5>\n\n\n\n<p>Seamos claros: no neguemos la necesidad de examinar los valores incorporados a la tecnolog\u00eda ni la importancia de dise\u00f1ar y crear tecnolog\u00eda con unos valores alineados con los intereses humanos <span class=\"note-item\"><a href=\"#note-025\" class=\"scroll-to\">[25]<\/a><span class=\"note-item-tooltip\"><\/span><\/span>. Tal como demuestran los ejemplos de este art\u00edculo, la IA aut\u00f3noma puede tener un papel en la toma de decisiones \u00e9ticas y ocasionar unos efectos \u00e9ticamente relevantes. Por eso, hace falta examinar los valores que incorpora y utilizar los valores sociales compartidos para orientar el dise\u00f1o y el desarrollo. No obstante, queremos cuestionar el deseo de <em>delegar <\/em>el razonamiento \u00e9tico y la decisi\u00f3n a las m\u00e1quinas y, as\u00ed, arrancar el razonamiento y la decisi\u00f3n de los contextos sociales y relacionales. Un buen an\u00e1lisis de la \u00e9tica de la IA tiene que ampliar su \u00e1mbito de reflexi\u00f3n e incluir otras partes y factores que sean relevantes para la toma de decisiones \u00e9ticas y hayan contribuido a los efectos \u00e9ticos de la IA aut\u00f3noma. Para eso, es fundamental que la \u00e9tica de la IA incluya diferentes partes interesadas (como responsables pol\u00edticos, directivos de empresas, dise\u00f1adores, ingenieros, usuarios, no usuarios y el p\u00fablico en general) en la reflexi\u00f3n \u00e9tica sobre la IA aut\u00f3noma. De hecho, s\u00f3lo si lo hacemos as\u00ed podremos dar una respuesta adecuada a las preguntas siguientes: (i) <em>por qu\u00e9 <\/em>creemos que las decisiones y los efectos de la IA son \u00e9ticos, (ii) <em>c\u00f3mo <\/em>llegamos a estas conclusiones y (iii) <em>si <\/em>tenemos justificaci\u00f3n para opinar as\u00ed.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>En el dise\u00f1o y la aplicaci\u00f3n de la IA deben de tenerse en cuenta las desigualdades y las injusticias sociales existentes, considerarlas y, en el mejor de los casos, intentar atenuarlas mediante las decisiones de dise\u00f1o<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>Esta \u00e9tica ampliada de la IA la denominaremos la <em>\u00e9tica distribuida de la IA<\/em>. El adjetivo \u00abdistribuida\u00bb pretende reflejar el hecho de que hay m\u00faltiples partes y factores que son relevantes y han contribuido a los efectos \u00e9ticos de la IA aut\u00f3noma y que, por lo tanto, la responsabilidad se \u00abdistribuye\u00bb entre las partes y los factores relevantes y coadyuvantes <span class=\"note-item\"><a href=\"#note-026\" class=\"scroll-to\">[26]<\/a><span class=\"note-item-tooltip\">26 \u2014 V\u00e9ase:\n\nFloridi, L. (2013) Distributed morality in an information society. Science and Engineering Ethics 19 (3): 727-743.\nSimon, J. (2015) Distributed epistemic responsibility in a hyperconnected era. In L. Floridi (Ed.), The Onlife Manifesto (pp. 145-159). Cham, Springer.\n\n<\/span><\/span>. Volvemos a los ejemplos de los VA y los algoritmos de contrataci\u00f3n: una mala ordenaci\u00f3n urbana y unas carreteras deficientes tienen que ser preocupaciones leg\u00edtimas en la \u00e9tica de los VA, de la misma manera que los sesgos sociales y culturales existentes son consideraciones v\u00e1lidas para los algoritmos de contrataci\u00f3n \u00e9ticos. Por lo tanto, en el dise\u00f1o y la aplicaci\u00f3n de la IA deben de tenerse en cuenta las desigualdades y las injusticias sociales <em>existentes<\/em>, considerarlas y, en el mejor de los casos, intentar atenuarlas mediante las decisiones de dise\u00f1o.<\/p>\n<\/div>\n<\/div>\n\n\n\n<p>La \u00e9tica distribuida de la IA necesita lo que Dignum denomin\u00f3 \u00ab\u00e9tica <em>en <\/em>el dise\u00f1o\u00bb, es decir, \u00ablos m\u00e9todos legislativos y de ingenier\u00eda que ayudan a analizar y evaluar las implicaciones \u00e9ticas de los sistemas d&#8217;IA, ya que estos integran o sustituyen las estructuras sociales tradicionales\u00bb, as\u00ed como la \u00ab\u00e9tica <em>para <\/em>el dise\u00f1o\u00bb, es decir, \u00ablos c\u00f3digos de conducta, las normas y los procesos de certificaci\u00f3n que garantizan la integridad de los desarrolladores y los usuarios cuando investigan, dise\u00f1an, construyen, utilizan y gestionan sistemas de inteligencia artificial\u00bb <span class=\"note-item\"><a href=\"#note-027\" class=\"scroll-to\">[27]<\/a><span class=\"note-item-tooltip\">27 \u2014 Dignum, V. (2018) Ethics in artificial intelligence: introduction to the special issue. Ethics and Information Technology 20 (1): p. 2.\n<\/span><\/span>. Las cuestiones \u00e9ticas de la IA aut\u00f3noma no se pueden resolver con una capacidad \u00e9tica <em>individual(ista)<\/em> \u00abmejor\u00bb, sino s\u00f3lo con el <em>esfuerzo colectivo<\/em>. Para orientar este esfuerzo colectivo, las directrices \u00e9ticas ofrecen recursos pr\u00e1cticos para suscitar una reflexi\u00f3n basada en valores y principios en relaci\u00f3n con la IA aut\u00f3noma y coordinar con eficacia el esfuerzo entre las diferentes partes relevantes y coadyuvantes <span class=\"note-item\"><a href=\"#note-028\" class=\"scroll-to\">[28]<\/a><span class=\"note-item-tooltip\">28 \u2014 Floridi, L. (2019) Establishing the rules for building trustworthy. Nature Machine Intelligence 1: 261-262.\n<\/span><\/span>.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Conclusiones: sobre la IA fiable de la UE<\/h5>\n\n\n\n<p>En abril del 2019, el grupo de expertos de alto nivel public\u00f3 las <em><a rel=\"noreferrer noopener\" aria-label=\"Directrius \u00e8tiques per a una IA fiable (s'obre en una nova pestanya)\" href=\"https:\/\/ec.europa.eu\/digital-single-market\/en\/news\/ethics-guidelines-trustworthy-ai\" target=\"_blank\">Directrices \u00e9ticas para una IA fiable<\/a><\/em>,  en la que se concreta la visi\u00f3n europea sobre la IA. De acuerdo con estas directrices, Europa tiene que investigar y desarrollar una <em>IA fiable<\/em>, es decir, <em>l\u00edcita<\/em>, <em>\u00e9tica<\/em> y <em>robusta<\/em>. <\/p>\n\n\n\n<p>Hay dos puntos de las directrices que merecen una menci\u00f3n especial en el tema de debate que nos ocupa. En primer lugar, es interesante se\u00f1alar que la preocupaci\u00f3n por la fiabilidad a las directrices concierne \u00abno s\u00f3lo las propiedades inherentes a esta tecnolog\u00eda, sino tambi\u00e9n las cualidades de los sistemas sociot\u00e9cnicos en que se aplica la IA. [\u2026] Por lo tanto, los esfuerzos dirigidos a garantizar la fiabilidad de la IA no conciernen s\u00f3lo la confianza en que suscita el mismo sistema d&#8217;IA, sino que requieren un enfoque integral y sist\u00e9mico que abrace la fiabilidad de todos los agentes y procesos que forman parte del contexto sociot\u00e9cnico en que se enmarca el sistema a lo largo de todo su ciclo de vida\u00bb En este sentido, la idea de una IA fiable coincide claramente con la \u00e9tica distribuida de la IA que hemos descrito antes. En segundo lugar, tambi\u00e9n es interesante se\u00f1alar que los cuatro principios \u00e9ticos identificados en las directrices son <em>principios de nivel medio<\/em>, es decir:<\/p>\n\n\n\n<ol class=\"wp-block-list\"><li> El principio de respeto a la autonom\u00eda humana.<\/li><li> El principio de prevenci\u00f3n de los da\u00f1os.<\/li><li> El principio de equidad.<\/li><li> El principio de explicabilidad.<br><\/li><\/ol>\n\n\n\n<p><br>La formulaci\u00f3n de principios \u00e9ticos basados en <em>principios de nivel medio<\/em> es especialmente esclarecedora, ya que los principios de nivel medio <em>exigen<\/em> una interpretaci\u00f3n humana y organizar la aplicaci\u00f3n y no est\u00e1n pensados para (y de hecho no pueden) aplicarse a la IA aut\u00f3noma. La necesidad de interpretaci\u00f3n y organizaci\u00f3n tambi\u00e9n apunta a los contextos sociales y relacionales, donde se encuentran los recursos para la interpretaci\u00f3n y la organizaci\u00f3n.<\/p>\n\n\n\n<p>Aunque la idea europea de una IA fiable y las directrices tienen unos fundamentos s\u00f3lidos desde la perspectiva conceptual, plantean algunos problemas. Por ejemplo, el uso de principios de nivel medio en las directrices da bastante espacio para la interpretaci\u00f3n, cosa que&nbsp; los agentes malintencionados pueden aprovechar para seleccionar las interpretaciones y sacudirse la responsabilidad. Este problema se agrava por el \u00e9nfasis en el autorregulaci\u00f3n que se hace en las directrices. Los pol\u00edticos y las empresas pueden hacer falsas promesas con medidas <em>baratas<\/em> y <em>superficiales<\/em>, como la propaganda y la creaci\u00f3n de consejos asesores simb\u00f3licos, sin abordar <em>sustancialmente<\/em> los efectos negativos de la IA. Por lo tanto, hay problemas importantes relacionados con el marco regulador e institucional <em>real<\/em> con respecto a la \u00e9tica de la IA y la materializaci\u00f3n de esta idea europea. En concreto, est\u00e1 la necesidad de crear un marco claro para hacer una distribuci\u00f3n <em>equitativa<\/em> de los beneficios y los riesgos de la IA y la necesidad de introducir leyes y normativas \u00abduras\u00bb contra la violaci\u00f3n de los valores \u00e9ticos b\u00e1sicos y los derechos humanos.<\/p>\n\n\n\n<p>A pesar de estos problemas, la atenci\u00f3n de las directrices <em>en los humanos <\/em>y <em>m\u00e1s all\u00e1 de la tecnolog\u00eda<\/em> se tiene que considerar una posici\u00f3n <em>normativa<\/em> adecuada para la \u00e9tica de la IA y la idea europea. Para acabar este art\u00edculo, queremos recordar que las cuestiones \u00e9ticas relativas a la IA aut\u00f3noma se distribuyen por naturaleza y que nosotros (o, mejor dicho, la sociedad) tenemos que tener voz en su dise\u00f1o y su aplicaci\u00f3n.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>A principios de 2019 una gran consultora internacional identific\u00f3 al \u00ab\u00e9tico de la IA\u00bb como un cargo fundamental para que las empresas apliquen correctamente la inteligencia artificial (IA). Sostiene que los \u00e9ticos de la IA son necesarios para ayudar a las empresas a explorar las cuestiones \u00e9ticas y sociales que plantea el uso de la IA . La opini\u00f3n de que la IA es positiva y, aun as\u00ed, potencialmente peligrosa para los individuos y la sociedad es muy compartida por el sector, los c\u00edrculos acad\u00e9micos, los gobiernos y las organizaciones de la sociedad civil. En consecuencia, y con el fin\u2026<\/p>\n","protected":false},"author":6,"featured_media":9398,"parent":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[198],"tags":[],"segment":[],"subject":[],"class_list":["post-10386","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-retos-eticos-es"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.0 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA &#8211; IDEES<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA &#8211; IDEES\" \/>\n<meta property=\"og:description\" content=\"A principios de 2019 una gran consultora internacional identific\u00f3 al \u00ab\u00e9tico de la IA\u00bb como un cargo fundamental para que las empresas apliquen correctamente la inteligencia artificial (IA). Sostiene que los \u00e9ticos de la IA son necesarios para ayudar a las empresas a explorar las cuestiones \u00e9ticas y sociales que plantea el uso de la IA . La opini\u00f3n de que la IA es positiva y, aun as\u00ed, potencialmente peligrosa para los individuos y la sociedad es muy compartida por el sector, los c\u00edrculos acad\u00e9micos, los gobiernos y las organizaciones de la sociedad civil. En consecuencia, y con el fin\u2026\" \/>\n<meta property=\"og:url\" content=\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\" \/>\n<meta property=\"og:site_name\" content=\"IDEES\" \/>\n<meta property=\"article:published_time\" content=\"2020-02-20T09:21:37+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-03-05T16:26:06+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1\" \/>\n\t<meta property=\"og:image:width\" content=\"2000\" \/>\n\t<meta property=\"og:image:height\" content=\"800\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Guille Velasco\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Guille Velasco\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"21 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\"},\"author\":{\"name\":\"Guille Velasco\",\"@id\":\"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f\"},\"headline\":\"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA\",\"datePublished\":\"2020-02-20T09:21:37+00:00\",\"dateModified\":\"2020-03-05T16:26:06+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\"},\"wordCount\":4201,\"image\":{\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1\",\"articleSection\":[\"Retos \u00e9ticos\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\",\"url\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\",\"name\":\"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA &#8211; IDEES\",\"isPartOf\":{\"@id\":\"https:\/\/revistaidees.cat\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1\",\"datePublished\":\"2020-02-20T09:21:37+00:00\",\"dateModified\":\"2020-03-05T16:26:06+00:00\",\"author\":{\"@id\":\"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f\"},\"breadcrumb\":{\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage\",\"url\":\"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1\",\"contentUrl\":\"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1\",\"width\":2000,\"height\":800,\"caption\":\"Araya Peralta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inici\",\"item\":\"https:\/\/revistaidees.cat\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/revistaidees.cat\/#website\",\"url\":\"https:\/\/revistaidees.cat\/\",\"name\":\"IDEES\",\"description\":\"Revista de temas contempor\u00e1neos\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/revistaidees.cat\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f\",\"name\":\"Guille Velasco\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/revistaidees.cat\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g\",\"caption\":\"Guille Velasco\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA &#8211; IDEES","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/","og_locale":"es_ES","og_type":"article","og_title":"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA &#8211; IDEES","og_description":"A principios de 2019 una gran consultora internacional identific\u00f3 al \u00ab\u00e9tico de la IA\u00bb como un cargo fundamental para que las empresas apliquen correctamente la inteligencia artificial (IA). Sostiene que los \u00e9ticos de la IA son necesarios para ayudar a las empresas a explorar las cuestiones \u00e9ticas y sociales que plantea el uso de la IA . La opini\u00f3n de que la IA es positiva y, aun as\u00ed, potencialmente peligrosa para los individuos y la sociedad es muy compartida por el sector, los c\u00edrculos acad\u00e9micos, los gobiernos y las organizaciones de la sociedad civil. En consecuencia, y con el fin\u2026","og_url":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/","og_site_name":"IDEES","article_published_time":"2020-02-20T09:21:37+00:00","article_modified_time":"2020-03-05T16:26:06+00:00","og_image":[{"width":2000,"height":800,"url":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1","type":"image\/jpeg"}],"author":"Guille Velasco","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Guille Velasco","Tiempo de lectura":"21 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#article","isPartOf":{"@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/"},"author":{"name":"Guille Velasco","@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f"},"headline":"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA","datePublished":"2020-02-20T09:21:37+00:00","dateModified":"2020-03-05T16:26:06+00:00","mainEntityOfPage":{"@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/"},"wordCount":4201,"image":{"@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage"},"thumbnailUrl":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1","articleSection":["Retos \u00e9ticos"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/","url":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/","name":"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA &#8211; IDEES","isPartOf":{"@id":"https:\/\/revistaidees.cat\/#website"},"primaryImageOfPage":{"@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage"},"image":{"@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage"},"thumbnailUrl":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1","datePublished":"2020-02-20T09:21:37+00:00","dateModified":"2020-03-05T16:26:06+00:00","author":{"@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f"},"breadcrumb":{"@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#primaryimage","url":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1","contentUrl":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1","width":2000,"height":800,"caption":"Araya Peralta"},{"@type":"BreadcrumbList","@id":"https:\/\/revistaidees.cat\/es\/reflexio-sobre-letica-en-letica-de-la-ia\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inici","item":"https:\/\/revistaidees.cat\/es\/"},{"@type":"ListItem","position":2,"name":"Reflexi\u00f3n sobre la \u00ab\u00e9tica\u00bb en la \u00e9tica de la IA"}]},{"@type":"WebSite","@id":"https:\/\/revistaidees.cat\/#website","url":"https:\/\/revistaidees.cat\/","name":"IDEES","description":"Revista de temas contempor\u00e1neos","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/revistaidees.cat\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f","name":"Guille Velasco","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g","caption":"Guille Velasco"}}]}},"jetpack_featured_media_url":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/02\/AAFF-REFLEXION-SOBRE-LA-ETICA-2000X800.jpg?fit=2000%2C800&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts\/10386","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/comments?post=10386"}],"version-history":[{"count":3,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts\/10386\/revisions"}],"predecessor-version":[{"id":10425,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts\/10386\/revisions\/10425"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/media\/9398"}],"wp:attachment":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/media?parent=10386"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/categories?post=10386"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/tags?post=10386"},{"taxonomy":"segment","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/segment?post=10386"},{"taxonomy":"subject","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/subject?post=10386"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}