{"id":13299,"date":"2020-05-04T09:08:00","date_gmt":"2020-05-04T09:08:00","guid":{"rendered":"https:\/\/revistaidees.cat\/?p=13299"},"modified":"2020-05-06T12:58:19","modified_gmt":"2020-05-06T12:58:19","slug":"el-lado-oscuro-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/","title":{"rendered":"El lado oscuro de la Inteligencia artificial"},"content":{"rendered":"\n<p>Las primeras d\u00e9cadas del siglo XXI han venido determinadas por un proceso de aceleraci\u00f3n tecnol\u00f3gica que s\u00f3lo puede ser comparado con otros hitos como fue la revoluci\u00f3n industrial. Al fin y al cabo ha comportado una serie cambios sist\u00e9micos dif\u00edciles de valorar y comprender en su totalidad. <\/p>\n\n\n\n<h5 class=\"wp-block-heading\">Mitos y realidades de la IA<\/h5>\n\n\n\n<p>Adem\u00e1s, como ejemplo de la magnitud de esta transformaci\u00f3n, tenemos que tener en cuenta que, por primera vez en la historia de nuestra especie, habitamos en un contexto en el que decisiones cr\u00edticas que afectan a la vida de los individuos, son tomadas (de forma parcial o en su totalidad) por entes no humanos, es decir, por simulaciones de inteligencia. Efectivamente, decisiones trascendentales para la vida de una persona, como su admisi\u00f3n en una universidad, la concesi\u00f3n de un cr\u00e9dito o una hipoteca son hoy d\u00eda en un gran n\u00famero de pa\u00edses tomadas por algoritmos de aprendizaje autom\u00e1tico. Inteligencias artificiales que, adem\u00e1s, tienen la capacidad no s\u00f3lo de afectar individuos aislados sino a comunidades enteras. Hay que recordar en este sentido el papel que jugaron determinados algoritmos financieros en la crisis econ\u00f3mica de 2008, vertiendo al sistema a ventas masivas de acciones de forma aut\u00f3noma, colaborando y acelerando la degradaci\u00f3n econ\u00f3mica. O el papel que algoritmos de \u00abcredit scoring\u00bb (calificaci\u00f3n de cr\u00e9ditos) est\u00e1n jugando a la cristalizaci\u00f3n de la pobreza de las comunidades afroamericanas e hispanas en Estados Unidos en la actualidad.<\/p>\n\n\n\n<p>Es decir, nos encontramos ante un proceso de deshumanizaci\u00f3n que viene determinado por la cesi\u00f3n de determinadas decisiones a seres sint\u00e9ticos sin humanidad en nombre de una automatizaci\u00f3n y estandarizaci\u00f3n de procesos, lo cual comporta una erosi\u00f3n en los sistemas de responsabilidad y <em>accountability<\/em>. Se trata del famoso \u00abcomputer says no\u00bb de la serie <em>Little Brittain<\/em> extendido a la pr\u00e1ctica totalidad de las capas del sistema o de lo que Postman describi\u00f3 como la rendici\u00f3n de la cultura ante la tecnolog\u00eda.<\/p>\n\n\n\n<p>Es evidente que vivimos rodeados de nuevos sets tecnol\u00f3gicos que incorporan Inteligencia Artificial: desde Siri en Cortana pasando por Alexa o Google Duplex. Nos hemos acostumbrado a compartir nuestra realidad con simulaciones de inteligencia, y lo que es todav\u00eda m\u00e1s importante y dram\u00e1tico, nos han acostumbrado a regalarles nuestros datos, en un ejercicio de exhibicionismo tecnol\u00f3gico con consecuencias que pueden resultar dram\u00e1ticas para la protecci\u00f3n de las libertades civiles y los derechos humanos.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>Por primera vez en la historia, decisiones cr\u00edticas que afectan a la vida de los individuos, son tomadas por simulaciones de inteligencia<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>Una de las principales razones que han alimentado la cesi\u00f3n de privacidad, individualidad y capacidad decisoria que estamos viviendo, el final de la cual resulta extremadamente complejo de prever, son las meta-narrativas que han acompa\u00f1ado a la nueva revoluci\u00f3n tecnol\u00f3gica, basadas en que son la soluci\u00f3n para los grandes problemas que amenazan nuestras sociedades, como el cambio clim\u00e1tico, el tratamiento y cuidado de enfermedades, la crisis por falta de agua, el control de fronteras como seguridad nacional, entre otros. <\/p>\n<\/div>\n<\/div>\n\n\n\n<p>Pero olvidamos que uno de los m\u00faltiples riesgos de estas aplicaciones inteligentes es que tienen el poder no s\u00f3lo de darle forma a la realidad, sino incluso de alterar nuestra percepci\u00f3n sobre la misma. Los algoritmos de personalizaci\u00f3n como <em>Page Rank<\/em> son una muestra dado que se basan en la falsa promesa de escogernos de la red y priorizar los documentos que considera que nos tienen que interesar. <\/p>\n\n\n\n<p>A menudo exageramos las capacidades y potencialidades ben\u00e9ficas de la tecnolog\u00eda y obviamos no s\u00f3lo las vulnerabilidades de lo mismo, sino los propios riesgos intr\u00ednsecos a su desarrollo, implementaci\u00f3n y cristalizaci\u00f3n (recordamos lo que pas\u00f3 cuando Facebook descubri\u00f3 que un programa de IA hab\u00eda creado su propio lenguaje ininteligible para sus creadores). <\/p>\n\n\n\n<p>As\u00ed, y tal como ya se hizo con otros sets tecnol\u00f3gicos, como el nuclear o el transg\u00e9nico, se nos argumenta ahora que esta nueva tecnolog\u00eda resultar\u00e1 clave para la diagnosis de ciertas enfermedades, para la distribuci\u00f3n equitativa de alimentos o para la lucha contra el cambio clim\u00e1tico. De la misma manera que la industria transg\u00e9nica de los 90 nos promet\u00eda acabar con el hambre en el mundo, o la incipiente industria nuclear nos promet\u00eda una energ\u00eda barata, limpia y segura, ahora parece que no podemos poner l\u00edmites a la IA porque su destino es buscar el bien de la humanidad. <\/p>\n\n\n\n<p>La repetici\u00f3n de la historia es clara, y en los foros internacionales de primer nivel se vuelven a extender promesas sobre escenarios ut\u00f3picos a los cuales se llega a trav\u00e9s de un \u00fanico camino: cesi\u00f3n de datos, cesi\u00f3n de privacidad y en \u00faltima instancia, cesi\u00f3n de humanidad. Y es que el mundo de la inteligencia Artificial est\u00e1 lleno de sombras que hay que invadir, sobre todo, teniendo en cuenta que muchos de los datos cedidos por los usuarios corren el riesgo de ser utilizadas en contra suya, ya sea por corporaciones privadas o por programas militares, como est\u00e1 ocurriendo con los programas de reconocimiento facial a trav\u00e9s de IA.<\/p>\n\n\n\n<p>En el mundo digital si alguna cosa es gratis, es simplemente porque el que est\u00e1 en venta eres t\u00fa. Sobretodo, si tenemos en cuenta que el comercio del petr\u00f3leo ha quedado superado por el de los datos ya que estas son la materia prima m\u00e1s valorada del planeta. Eso es as\u00ed porque que un algoritmo sin datos no es nada, y poco a poco vamos hacia una sociedad algor\u00edtmica, donde nuestro propio comportamiento y lenguaje, se va adaptando poco a poco a las necesidades de los algoritmos, y no viceversa. El caso de <em>Cambridge Analytica<\/em> (mercadearon con los datos privados de m\u00e1s de 50 millones de personas) resulta un ejemplo paradigm\u00e1tico de nuestras vulnerabilidades, sociales e individuales. Pero tambi\u00e9n lo son los experimentos sociales de Facebook y su FaceAPP (una aplicaci\u00f3n que transforma nuestra cara para ver c\u00f3mo seremos de mayores pero que en el fondo lo que hacemos es autorizar que trafiquen con nuestros datos biom\u00e9tricos). Todo muestra c\u00f3mo de relativamente sencillo resulta aprovecharse de una sociedad donde el pensamiento cr\u00edtico ha sido relegado a su m\u00e1s m\u00ednima expresi\u00f3n por unos sistemas educativos y medi\u00e1ticos que lo han devaluado.<\/p>\n\n\n\n<p>Ahora bien, el problema es mucho m\u00e1s profundo. La justificaci\u00f3n de la te\u00f3rica necesidad de usar tecnolog\u00edas que son completamente invasivas de nuestra privacidad se basan en tres mitos.<\/p>\n\n\n\n<p>El primer mito es que las m\u00e1quinas pueden adoptar comportamientos \u00e9ticos-morales si estos son correctamente codificados. Pero es evidente que una m\u00e1quina no puede tener ni \u00e9tica ni moral ni intuici\u00f3n propia. En todo caso podr\u00e1 tener la \u00e9tica de quien lo ha codificado. Ser\u00e1 una simulaci\u00f3n de la \u00e9tica del programador, una r\u00e9plica del ingeniero o una combinaci\u00f3n de los datos que encuentre en la nube. \u00bfSin embargo, podemos preguntarnos si una vez codificada la IA, el sistema evolucionar\u00e1 por s\u00ed solo? \u00bfo si nos condenar\u00e1 a una sociedad de tipo inmovilista donde el bien y el mal queden cristalizados en la base de una construcci\u00f3n subjetivitzada en los algoritmos? \u00bfY si evoluciona\u2026cu\u00e1l ser\u00e1 su hito?<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>La IA en ning\u00fan caso puede ser considerada como un agente moral, por el simple hecho de que se trata de una simulaci\u00f3n<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>En definitiva, la Inteligencia Artificial en ning\u00fan caso puede ser considerada como un agente moral, por el simple hecho de que se trata de una simulaci\u00f3n, y por lo tanto no es capaz de comprender, bajo ning\u00fan tipo de par\u00e1metro una cosa tan sencilla y central como es el valor de una vida humana, ni sentir respeto, ni compasi\u00f3n.<\/p>\n<\/div>\n<\/div>\n\n\n\n<p>El segundo mito se basa en que la IA puede tomar decisiones de forma m\u00e1s efectiva, m\u00e1s ecu\u00e1nime y m\u00e1s justa que un humano. Nada m\u00e1s lejos de la realidad, en primer lugar, porque la IA reproduce por emulaci\u00f3n el sistema \u00e9tico-ideol\u00f3gico de sus creadores, es decir reproduce nuestra falta de imparcialidad. Como nos muestra Cathy O&#8217;Neil en su obra <em>Armas de destrucci\u00f3n matem\u00e1tica<\/em>, creer en la infalibilidad de los algoritmos puede llevar a resultados dram\u00e1ticos como los ocurridos con las evaluaciones de profesores en el estado de Washington, o como nos mostr\u00f3 el <em>American Civil Liberties Union<\/em> con respecto a los sistemas de reconocimiento facial que tienen una alta tendencia a identificar sujetos no cauc\u00e1sicos como criminales.<\/p>\n\n\n\n<p>Estamos ante una tecnolog\u00eda dise\u00f1ada por hombres blancos, con el sistema mental propio de los mismos, donde sus filias y fobias tienden a ser trasladadas a sus creaciones. Es m\u00e1s, al tratarse de un sistema heur\u00edstico resulta altamente complejo saber el proceso mediante el cual la IA ha tomado una determinada decisi\u00f3n. Por lo tanto, si resulta imposible deconstruir o explicar el proceso que ha llevado a una determinada decisi\u00f3n en la IA, es una irresponsabilidad dejarlas que operen libremente.<\/p>\n\n\n\n<p>Y, finalmente, llegamos al tercer mito que afirma que la inteligencia artificial es m\u00e1s fiable que la inteligencia humana, cosa que en an\u00e1lisis muy espec\u00edficos podr\u00eda ser aceptado, pero nunca en t\u00e9rminos generales. Hay que destacar aqu\u00ed el trabajo hecho por la ONG brit\u00e1nica <em>Big Brother is watching us<\/em> que, apelando al acto de libertad de informaci\u00f3n, consiguieron que el gobierno revelara la fiabilidad de los sistemas de reconocimiento facial que se utilizaron durante el Carnaval de Candem. El resultado fue que s\u00f3lo un 5% de las identificaciones de criminales hechas a trav\u00e9s del sistema d&#8217;IA eran correctas, dando un error medio del 95%.<\/p>\n\n\n\n<p>Esta mitolog\u00eda tiene todav\u00eda resultados mucho m\u00e1s preocupantes si tenemos en cuenta los estudios del profesor Noel Sharkey, quien elabor\u00f3 la teor\u00eda del <em>Automation bias<\/em> donde explica que los humanos tenemos tendencia a dar por v\u00e1lidos los juicios y an\u00e1lisis hechos por la IA, dado que pensamos que es m\u00e1s efectiva y fiable que nosotros mismos.<\/p>\n\n\n\n<p>Pero lo m\u00e1s sorprendente, es que a pesar de saber que la IA no puede ser considerada como un agente moral, y a pesar de saber sus limitaciones a la hora de interpretar a la realidad a causa de los sesgos propios de sus creadores y de la propia sociedad (especialmente en sistemas que se nutren de lenguaje natural) su penetraci\u00f3n sigue aumentando, y cada vez m\u00e1s procesos son guiados a trav\u00e9s de estos sistemas.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">El control humano significativo y los sistemas de armamento letales aut\u00f3nomos <\/h5>\n\n\n\n<p>Es as\u00ed como llegamos al aspecto m\u00e1s aberrante del tema: la IA aplicada a los sistemas de armamento letal aut\u00f3nomo (<em>LAWS<\/em> por las siglas en ingl\u00e9s). Se trata del surgimiento de una nueva generaci\u00f3n de armas con capacidad de seleccionar y eliminar objetivos sin un control humano significativo. Es decir, estamos ante una delegaci\u00f3n de capacidades letales a una supuesta inteligencia artificial, la cual tendr\u00e1 potestad no s\u00f3lo para decidir a quien recibe o no un cr\u00e9dito, quien es aceptado o no en una universidad, quien accede o no a un determinado puesto de trabajo, sino directamente, qui\u00e9n vive y qui\u00e9n muere.<\/p>\n\n\n\n<p>Estamos hablando de una tipolog\u00eda de armamento que obvia la dimensi\u00f3n racional, cooperativa, intuitiva, moral y \u00e9tica de las decisiones humanas, contradice el derecho internacional humanitario, las leyes de la guerra e, internamente, el derecho administrativo dado que el monopolio de la violencia leg\u00edtima est\u00e1 en manos del Estado.<\/p>\n\n\n\n<p>Todos los sistemas letales de armas aut\u00f3nomas (drones o robots) desarrollados hasta ahora dependen o tendr\u00edan que depender de la supervisi\u00f3n humana o del juicio humano. Es decir, tendr\u00edan que tener un control humano significativo previo en al menos algunas de sus fases cr\u00edticas (selecci\u00f3n de objetivos o cancelaci\u00f3n del orden). No obstante, se est\u00e1 investigando y se est\u00e1n desarrollando sistemas con vocaci\u00f3n de total autonom\u00eda, situaci\u00f3n permitida porque no hay una regulaci\u00f3n clara al respecto. Esta inactividad de los estados est\u00e1 llevando a una especie de carrera competitiva sin ley entre gobiernos que puede ser muy peligrosa y que, en Naciones Unidas, como miembros del Comit\u00e9 Internacional para el control de armas rob\u00f3ticas (ICRAC), estamos intentando frenar con la aprobaci\u00f3n de un tratado multilateral que proh\u00edba este tipo de arma genocida. <\/p>\n\n\n\n<p>A pesar de los esfuerzos, la mayor\u00eda de los estados de peso, justifican la investigaci\u00f3n de esta tecnolog\u00eda letal asegurando que no se utilizar\u00e1 en ataques sino para defensa nacional. Pero eso no parece m\u00e1s que un subterfugio para ser los primeros al poner en marcha sistemas absolutamente letales dotados de la capacidad de independizarse de su creador y el suyo responsable. Por eso es esencial desarrollar una regulaci\u00f3n internacional que proh\u00edba los usos letales de la IA, y que limite claramente la existencia de vasos comunicantes entre el desarrollo de sistemas de defensa nacional y aquellos cuyo prop\u00f3sito es la acci\u00f3n letal contra las personas. En caso contrario, alguien podr\u00eda llegar a atribuir a una m\u00e1quina sin humanidad el poder de decidir a qui\u00e9n eliminar, es decir, podr\u00edan crear un robot, un dron, con licencia para matar. <\/p>\n\n\n\n<p>As\u00ed, en los \u00faltimos a\u00f1os se han empezado a detectar movimientos que anuncian el comienzo de una nueva carrera armamentista con consecuencias que pueden ser desastrosas por el futuro de nuestra especie. China, por ejemplo, est\u00e1 modernizando r\u00e1pidamente su ej\u00e9rcito y ha optado por armas nucleares de \u00faltima generaci\u00f3n a trav\u00e9s de ojivas con IA para limitar el da\u00f1o durante el ataque a objetivos espec\u00edficos. En contraste, Estados Unidos sigue siendo el heredero de las armas del pasado, lo que hace que se muevan m\u00e1s lentamente, en lo que se ha denominado el \u00abcomplejo militar-industrial-congresional\u00bb (MICC) en referencia a que el Congreso de los EEUU forma una relaci\u00f3n tripartita denominada Tri\u00e1ngulo de Hierro (relaciones entre contratistas militares privados, el Gobierno y el Congreso).<\/p>\n\n\n\n<p>De esta manera, entre 2014 y 2018, China realiz\u00f3 en torno a 200 experimentos de laboratorio por simular una explosi\u00f3n nuclear, mientras que EE. UU., en el mismo periodo, realiz\u00f3 50. La carrera emprendida por China es evidente. Al final, como se\u00f1ala Hartnett, del <em>Bank of America<\/em>, \u00abla guerra comercial de 2018 tendr\u00eda que ser reconocida por lo que realmente es: la primera etapa de una nueva carrera armamentista entre EE. UU. y China para conseguir la superioridad en tecnolog\u00eda durante a largo plazo a trav\u00e9s de la computaci\u00f3n cu\u00e1ntica, inteligencia artificial, aviones de combate hipers\u00f3nicos, veh\u00edculos electr\u00f3nicos, rob\u00f3tica y ciberseguridad \u00ab.<\/p>\n\n\n\n<p>Por lo tanto, la inversi\u00f3n en tecnolog\u00eda est\u00e1 vinculada al gasto de defensa (aunque eso no siempre significa obtener una seguridad mayor): el pron\u00f3stico del FMI es que China superar\u00e1 progresivamente en los EE. UU. Hasta 2050, y qu\u00e9 se convertir\u00e1 en la superpotencia dominante en el mundo. Espec\u00edficamente, se calcula que en torno a 2032, superar\u00e1 la econom\u00eda y la fuerza militar de los EE. UU., as\u00ed como su influencia global.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">La muerte en manos de un sistema aut\u00f3nomo con IA va contra la dignidad humana<\/h5>\n\n\n\n<p>En los conflictos armados, el derecho a la vida significa el derecho a no ser asesinado de manera arbitraria o caprichosa, inexplicable o inhumana o como da\u00f1o colateral y no puede vulnerar el derecho a la dignidad humana. Incluso se puede decir que la dignidad humana es un derecho m\u00e1s importante que el derecho a la vida, porque incluso en una sociedad civilizada, puede darse el caso de ejecuciones legales, pero estas no pueden vulnerar la dignidad humana.<\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>Aunque las LAWS podr\u00edan ofrecer mejores resultados basados en un c\u00e1lculo de coste-beneficio, se tendr\u00edan que prohibir por razones \u00e9ticas y legales<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>El miedo a un futuro dist\u00f3pico parece una raz\u00f3n leg\u00edtima para una prohibici\u00f3n total o una moratoria de las LAWS mediante la aplicaci\u00f3n del principio de precauci\u00f3n, pero para defender esta posici\u00f3n, la noci\u00f3n de dignidad humana y la cl\u00e1usula de Martens se tienen que fortalecer-previamente, como as\u00ed como los conceptos relacionados con el control humano significativo y la autodeterminaci\u00f3n de los sistemas letales aut\u00f3nomos.<\/p>\n<\/div>\n<\/div>\n\n\n\n<p>Adem\u00e1s, creemos que, aunque las LAWS podr\u00edan ofrecer mejores resultados basados en un c\u00e1lculo de coste-beneficio, se tendr\u00edan que prohibir por razones \u00e9ticas y legales. Heyns, quien tiene la misma opini\u00f3n, lo basa en la concepci\u00f3n de Kant de la dignidad humana, seg\u00fan la cual las personas tienen el derecho inherente de ser tratados como seres humanos \u00fanicos y completos, especialmente cuando sus vidas est\u00e1n en juego. Esta dignidad humana se ahogar\u00eda si las v\u00edctimas que quisieran apelar a la humanidad de su verdugo no pudieran hacerlo porque se trata de un ser artificial. El poder ejecutivo tiene que ofrecer el debido respeto a la dignidad de la persona que considera el caso espec\u00edfico y realiza evaluaciones y ajustes constantes. Adem\u00e1s, nada de esta aplicaci\u00f3n de la ley con las caracter\u00edsticas de las capacidades humanas se puede garantizar con armas aut\u00f3nomas, ya que habr\u00eda una falta de juicio humano adecuado a sus acciones.<\/p>\n\n\n\n<p>Tambi\u00e9n debemos profundizar en nuevas formas de convivencia considerando que la deshumanizaci\u00f3n ya provocada por los sistemas aut\u00f3nomos con control humano en los conflictos de guerra deja en el papel todo lo que se hab\u00eda aprendido en la Primera Guerra Mundial sobre la cooperaci\u00f3n y la dignidad humana, comunicaci\u00f3n verbal y sobre la relaci\u00f3n humana entre combatientes. El progreso en la comunicaci\u00f3n humanitaria no verbal se detiene e incluso retrocede cuando se lucha con drones aut\u00f3nomos letales. En palabras de Sparrow, \u00abtenemos que mantener una relaci\u00f3n interpersonal con otros seres humanos incluso durante la guerra\u00bb o no respetaremos los fundamentos de la ley.<\/p>\n\n\n\n<p>Los defensores de estos nuevos sistemas de armas inteligentes, ignorando la necesidad de este componente de la humanidad, les atribuyen numerosas ventajas como: reducci\u00f3n de los costes operativos, desarrollo de ciertas tareas m\u00e1s r\u00e1pidamente que los humanos, alta capacidad para llegar a un objetivo incluso cuando la comunicaci\u00f3n de los enlaces se ven afectados\u2026 Arkin adem\u00e1s se\u00f1ala en su defensa que pueden dise\u00f1arse para aceptar los riesgos m\u00e1s altos, que pueden tener los mejores sensores, que no ser\u00e1n sacudidos por emociones como el miedo o la ira, que no sufrir\u00e1n prejuicios cognitivos e incluso que pueden distinguir leg\u00edtimamente y de forma confiable los objetivos leg\u00edtimos de los ileg\u00edtimos.<\/p>\n\n\n\n<p>Estas ventajas podr\u00edan ser ciertas, pero hay numerosos ejemplos de hombres y mujeres de todo tipo y condiciones que en un momento se negaron a presionar el bot\u00f3n que habr\u00eda provocado la muerte de ciudadanos. Las guerras han evolucionado en humanidad porque la comunicaci\u00f3n no verbal desde la guerra de trincheras permiti\u00f3 momentos de tregua y baja letalidad sin que los soldados hubieran recibido ning\u00fan orden en este sentido.<\/p>\n\n\n\n<p>La supresi\u00f3n de una vida humana, para no ser considerada arbitraria, se tiene que basar en una decisi\u00f3n informada y un juicio cognitivo humano, ya que s\u00f3lo una decisi\u00f3n humana garantiza el pleno reconocimiento del valor de la vida individual y la importancia de su p\u00e9rdida.<\/p>\n\n\n\n<p>Y as\u00ed entran en juego todos los est\u00e1ndares modernos y complejos del derecho humanitario: proporcionalidad, compasi\u00f3n, uso de m\u00e9todos menos onerosos o menos restrictivos, vigilancia constante, caballerosidad\u2026 En consecuencia, las acciones de los drones letales aut\u00f3nomos para disponer de IA no son leg\u00edtimas ni moralmente justificables y se tendr\u00edan que prohibir bajo el principio de dignidad humana e <em>ius cogens<\/em>, que como norma obligatoria contiene las normas fundamentales del derecho humanitario.  <\/p>\n\n\n\n<p>Por otra parte, la intuici\u00f3n es parte de nuestra esencia como humanos y de todas nuestras acciones, y siempre ha jugado un papel fundamental en la guerra. Adem\u00e1s, las LAWS pueden dotarse de mecanismos de imitaci\u00f3n e incorporar procesos integradores y cognitivos, pero no fenomenol\u00f3gicos. Nunca pueden ser intuitivos o sentir emociones, sino s\u00f3lo replicar. Como dice al neurocient\u00edfico G. Rizzolatti, descubridor de las neuronas espejo, \u00ablos robots pueden imitar, no sentir\u00bb. Adem\u00e1s, si este es el caso, como los algoritmos incluidos en los sistemas aut\u00f3nomos letales no pueden alcanzar las caracter\u00edsticas humanas necesarias para tomar decisiones p\u00fablicas discrecionales trascendentales que se refieren al ejercicio de la fuerza leg\u00edtima contra las personas, la transferencia, la descentralizaci\u00f3n de estos poderes a los sistemas aut\u00f3nomos no tiene que ser aceptada. El poder de decidir qui\u00e9n es el enemigo (dentro o fuera del Estado) y apoderarse de vidas humanas de forma discrecional es tan trascendente que no se puede otorgar a seres artificiales sin emociones humanas.<\/p>\n\n\n\n<p>McQuillan advierte que la vigilancia, gracias a la acumulaci\u00f3n masiva y detallada de datos a trav\u00e9s de sistemas inteligentes, est\u00e1 generando cambios en la gobernanza y da\u00f1os en el n\u00facleo de la sociedad civil de tal nivel que lo llama \u00abel estado de excepci\u00f3n algor\u00edtmico\u00bb. <\/p>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:33.33%\">\n<blockquote class=\"wp-block-quote is-style-large is-layout-flow wp-block-quote-is-layout-flow\"><p>La \u00fanica garant\u00eda de progreso y sostenibilidad de los derechos de los ciudadanos ante la inteligencia artificial en sistemas aut\u00f3nomos es la regulaci\u00f3n<\/p><\/blockquote>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>Incluso Mark Zuckerberg, CEO de Facebook, reconoci\u00f3 impl\u00edcitamente ante el Congreso de los Estados Unidos que nos enfrentamos a un estado an\u00f3mico y que necesitamos un regulador que no conf\u00ede todo en el libre mercado: \u00abla regulaci\u00f3n federal de Facebook y otras compa\u00f1\u00edas de Internet es indispensable\u00bb.  Ser\u00e1 a trav\u00e9s de esta legislaci\u00f3n federal cuando haya una proyecci\u00f3n internacional y, en \u00faltima instancia, una globalizaci\u00f3n, ya que podr\u00eda tener efectos extraterritoriales en otros pa\u00edses, como ha sucedido con otras regulaciones americanas. No obstante, hasta ahora no hay instrumentos internacionales legalmente vinculantes o incluso leyes nacionales que proh\u00edban el desarrollo, la producci\u00f3n y el uso de los llamados robots asesinos.<\/p>\n<\/div>\n<\/div>\n\n\n\n<p>La \u00fanica garant\u00eda de progreso y sostenibilidad de los derechos de los ciudadanos ante la inteligencia artificial en sistemas aut\u00f3nomos es la regulaci\u00f3n. La propia evoluci\u00f3n de la tecnolog\u00eda, que se puede ver profundamente afectada por usos que van en contra del criterio de la opini\u00f3n p\u00fablica, de manera tal que la totalidad de la tecnolog\u00eda se vea comprometida, como pas\u00f3 con la nuclear o la qu\u00edmica. De la misma manera, una relajaci\u00f3n de la intervenci\u00f3n en esta tecnolog\u00eda puede conducir al suyo propio hacia el fin de la humanidad misma.<\/p>\n\n\n\n<h5 class=\"wp-block-heading\">El peligro m\u00e1s perturbador e inquietante de las LAWS: los drones letales de bolsillo<\/h5>\n\n\n\n<p>Los esfuerzos que estamos haciendo en las reuniones de Expertos gubernamentales a Naciones Unidas para conseguir un tratado que proh\u00edba las armas letales aut\u00f3nomas (CCCW) se focalizan en grandes armas para la guerra (macro LAWS como Reaper, Tarannis, Iron Drome, etc.). <\/p>\n\n\n\n<p>Pero es necesario ir m\u00e1s all\u00e1 y reconocer que el verdadero peligro son las armas peque\u00f1as en manos de particulares, es decir, lo que se puede llegar a  microLAWS que puede pasar de estar controlado por las fuerzas militares a estar en manos de cualquier ciudadano para su seguridad privada. Ser\u00eda otro ejemplo de tecnolog\u00eda letal de doble uso. <\/p>\n\n\n\n<p>Una situaci\u00f3n que puede desestabilizarnos y puede hacer cambiar los est\u00e1ndares de seguridad que ten\u00edamos hasta ahora. Si los LAWS militares ya son dif\u00edciles de atacar cuando lo hacen en forma de enjambres de minidrones, no es complicado de imaginarnos lo que puede pasar si estos pasan a estar bajo el poder de miles de individuos que, en vez de un arma convencional, escogen un dron letal para dotarse de la seguridad que el Estado no puede garantizarles.<\/p>\n\n\n\n<p>El derecho a llevar armas que garantiza la Segunda Enmienda de la Constituci\u00f3n americana permite a sus ciudadanos no s\u00f3lo tener una pistola o un rev\u00f3lver sino cualquier arma que se considere necesaria para su seguridad como las autom\u00e1ticas o las militares. Llevado al extremo, en la misma l\u00ednea podr\u00edan reivindicar el derecho a la posesi\u00f3n de un robot aut\u00f3nomo letal para protegerlos defensiva u ofensivamente. Es decir, el derecho a poseer un dron de bolsillo aut\u00f3nomo letal con IA.<\/p>\n\n\n\n<p>La regulaci\u00f3n a nivel internacional y administrativa global tiene que ser preventiva y tiene que frenar esta situaci\u00f3n dado que del uso militar de esta tecnolog\u00eda se pasar\u00e1 a un uso p\u00fablico-civil como estamos viendo con los drones utilizados por la polic\u00eda o los servicios de protecci\u00f3n civil, o incluso privados.<\/p>\n\n\n\n<p>Eso puede desencadenar una situaci\u00f3n de inseguridad global debido a la proliferaci\u00f3n de este tipo de armas de forma descontrolada en manos privadas y debido a la dificultad para prever la interrelaci\u00f3n de sistemas letales con IA entre ellos. Esperamos que el derecho no llegue demasiado tarde para poder frenar esta pandemia anunciada.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Las primeras d\u00e9cadas del siglo XXI han venido determinadas por un proceso de aceleraci\u00f3n tecnol\u00f3gica que s\u00f3lo puede ser comparado con otros hitos como fue la revoluci\u00f3n industrial. Al fin y al cabo ha comportado una serie cambios sist\u00e9micos dif\u00edciles de valorar y comprender en su totalidad. Mitos y realidades de la IA Adem\u00e1s, como ejemplo de la magnitud de esta transformaci\u00f3n, tenemos que tener en cuenta que, por primera vez en la historia de nuestra especie, habitamos en un contexto en el que decisiones cr\u00edticas que afectan a la vida de los individuos, son tomadas (de forma parcial o\u2026<\/p>\n","protected":false},"author":6,"featured_media":13217,"parent":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[202],"tags":[],"segment":[],"subject":[],"class_list":["post-13299","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uso-militar-ia-es"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.5 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>El lado oscuro de la Inteligencia artificial &#8211; IDEES<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"El lado oscuro de la Inteligencia artificial &#8211; IDEES\" \/>\n<meta property=\"og:description\" content=\"Las primeras d\u00e9cadas del siglo XXI han venido determinadas por un proceso de aceleraci\u00f3n tecnol\u00f3gica que s\u00f3lo puede ser comparado con otros hitos como fue la revoluci\u00f3n industrial. Al fin y al cabo ha comportado una serie cambios sist\u00e9micos dif\u00edciles de valorar y comprender en su totalidad. Mitos y realidades de la IA Adem\u00e1s, como ejemplo de la magnitud de esta transformaci\u00f3n, tenemos que tener en cuenta que, por primera vez en la historia de nuestra especie, habitamos en un contexto en el que decisiones cr\u00edticas que afectan a la vida de los individuos, son tomadas (de forma parcial o\u2026\" \/>\n<meta property=\"og:url\" content=\"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/\" \/>\n<meta property=\"og:site_name\" content=\"IDEES\" \/>\n<meta property=\"article:published_time\" content=\"2020-05-04T09:08:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-05-06T12:58:19+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1\" \/>\n\t<meta property=\"og:image:width\" content=\"2000\" \/>\n\t<meta property=\"og:image:height\" content=\"800\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Guille Velasco\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"Guille Velasco\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data2\" content=\"21 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/\"},\"author\":{\"name\":\"Guille Velasco\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/#\\\/schema\\\/person\\\/adfa7c9b46b4f5aba1a2db263fdfd38f\"},\"headline\":\"El lado oscuro de la Inteligencia artificial\",\"datePublished\":\"2020-05-04T09:08:00+00:00\",\"dateModified\":\"2020-05-06T12:58:19+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/\"},\"wordCount\":4297,\"image\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/i0.wp.com\\\/revistaidees.cat\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1\",\"articleSection\":[\"Uso militar de la IA\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/\",\"url\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/\",\"name\":\"El lado oscuro de la Inteligencia artificial &#8211; IDEES\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/i0.wp.com\\\/revistaidees.cat\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1\",\"datePublished\":\"2020-05-04T09:08:00+00:00\",\"dateModified\":\"2020-05-06T12:58:19+00:00\",\"author\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/#\\\/schema\\\/person\\\/adfa7c9b46b4f5aba1a2db263fdfd38f\"},\"breadcrumb\":{\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#primaryimage\",\"url\":\"https:\\\/\\\/i0.wp.com\\\/revistaidees.cat\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1\",\"contentUrl\":\"https:\\\/\\\/i0.wp.com\\\/revistaidees.cat\\\/wp-content\\\/uploads\\\/2020\\\/04\\\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1\",\"width\":2000,\"height\":800,\"caption\":\"Araya Peralta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/el-lado-oscuro-de-la-inteligencia-artificial\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inici\",\"item\":\"https:\\\/\\\/revistaidees.cat\\\/es\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"El lado oscuro de la Inteligencia artificial\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/#website\",\"url\":\"https:\\\/\\\/revistaidees.cat\\\/\",\"name\":\"IDEES\",\"description\":\"Revista de temas contempor\u00e1neos\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/revistaidees.cat\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/revistaidees.cat\\\/#\\\/schema\\\/person\\\/adfa7c9b46b4f5aba1a2db263fdfd38f\",\"name\":\"Guille Velasco\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g\",\"caption\":\"Guille Velasco\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"El lado oscuro de la Inteligencia artificial &#8211; IDEES","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/","og_locale":"es_ES","og_type":"article","og_title":"El lado oscuro de la Inteligencia artificial &#8211; IDEES","og_description":"Las primeras d\u00e9cadas del siglo XXI han venido determinadas por un proceso de aceleraci\u00f3n tecnol\u00f3gica que s\u00f3lo puede ser comparado con otros hitos como fue la revoluci\u00f3n industrial. Al fin y al cabo ha comportado una serie cambios sist\u00e9micos dif\u00edciles de valorar y comprender en su totalidad. Mitos y realidades de la IA Adem\u00e1s, como ejemplo de la magnitud de esta transformaci\u00f3n, tenemos que tener en cuenta que, por primera vez en la historia de nuestra especie, habitamos en un contexto en el que decisiones cr\u00edticas que afectan a la vida de los individuos, son tomadas (de forma parcial o\u2026","og_url":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/","og_site_name":"IDEES","article_published_time":"2020-05-04T09:08:00+00:00","article_modified_time":"2020-05-06T12:58:19+00:00","og_image":[{"width":2000,"height":800,"url":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1","type":"image\/jpeg"}],"author":"Guille Velasco","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"Guille Velasco","Tiempo de lectura":"21 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#article","isPartOf":{"@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/"},"author":{"name":"Guille Velasco","@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f"},"headline":"El lado oscuro de la Inteligencia artificial","datePublished":"2020-05-04T09:08:00+00:00","dateModified":"2020-05-06T12:58:19+00:00","mainEntityOfPage":{"@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/"},"wordCount":4297,"image":{"@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#primaryimage"},"thumbnailUrl":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1","articleSection":["Uso militar de la IA"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/","url":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/","name":"El lado oscuro de la Inteligencia artificial &#8211; IDEES","isPartOf":{"@id":"https:\/\/revistaidees.cat\/#website"},"primaryImageOfPage":{"@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#primaryimage"},"image":{"@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#primaryimage"},"thumbnailUrl":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1","datePublished":"2020-05-04T09:08:00+00:00","dateModified":"2020-05-06T12:58:19+00:00","author":{"@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f"},"breadcrumb":{"@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#primaryimage","url":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1","contentUrl":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1","width":2000,"height":800,"caption":"Araya Peralta"},{"@type":"BreadcrumbList","@id":"https:\/\/revistaidees.cat\/es\/el-lado-oscuro-de-la-inteligencia-artificial\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inici","item":"https:\/\/revistaidees.cat\/es\/"},{"@type":"ListItem","position":2,"name":"El lado oscuro de la Inteligencia artificial"}]},{"@type":"WebSite","@id":"https:\/\/revistaidees.cat\/#website","url":"https:\/\/revistaidees.cat\/","name":"IDEES","description":"Revista de temas contempor\u00e1neos","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/revistaidees.cat\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"},{"@type":"Person","@id":"https:\/\/revistaidees.cat\/#\/schema\/person\/adfa7c9b46b4f5aba1a2db263fdfd38f","name":"Guille Velasco","image":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/629007751c4a3e3bc4a875f83b1492bf27b7e7eff053528d6942b03ce18e75ad?s=96&d=mm&r=g","caption":"Guille Velasco"}}]}},"jetpack_featured_media_url":"https:\/\/i0.wp.com\/revistaidees.cat\/wp-content\/uploads\/2020\/04\/EL-COSTAT-FOSC-DE-LA-AI-200X800.jpg?fit=2000%2C800&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts\/13299","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/comments?post=13299"}],"version-history":[{"count":2,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts\/13299\/revisions"}],"predecessor-version":[{"id":13302,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/posts\/13299\/revisions\/13302"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/media\/13217"}],"wp:attachment":[{"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/media?parent=13299"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/categories?post=13299"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/tags?post=13299"},{"taxonomy":"segment","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/segment?post=13299"},{"taxonomy":"subject","embeddable":true,"href":"https:\/\/revistaidees.cat\/es\/wp-json\/wp\/v2\/subject?post=13299"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}