Ante todo, quiero empezar reconociendo que la pandemia de Covid-19 es una situación en evolución con numerosos efectos y externalidades. Permítanme también reconocer el importante corpus de escritos provocadores disponibles que tratan de los vacíos, las ganancias e incertidumbres a las que se enfrentará la humanidad cuando pase esta pandemia. Asumimos, pues, que habrá un punto final. Como escribió elocuentemente Arundthi Roy en el Financial Times, “Históricamente, las pandemias han obligado a los humanos a romper con el pasado e imaginar de nuevo el mundo. La pandemia actual no es diferente. Es un portal, una puerta de conexión entre un mundo y el siguiente.”

Apoyándome en esta afirmación, me permito este ejercicio de imaginación y me pregunto: ¿qué papel pueden desempeñar las tecnologías emergentes, especialmente la inteligencia artificial (IA), para ayudarnos a construir una sociedad humana mejor?

¿Qué papel pueden desempeñar las tecnologías emergentes, especialmente la inteligencia artificial (IA), para ayudarnos a construir una sociedad humana mejor?

¿En qué se diferencia esta misión de la más genérica que consiste en crear herramientas de IA para el bien general de los humanos? En primer lugar, la pandemia ha revelado deficiencias a nivel general, desde sistemas de salud insuficientes hasta injusticias en el suministro de alimentos, la educación, los beneficios del trabajo y una creciente brecha digital. Más específicamente, los desafíos que nos plantea el COVID-19 enfatizan que la inteligencia artificial -y la tecnología en general- no es una solución mágica. Ni el aprendizaje artificial ni las redes neuronales han sido capaces (todavía) de inventar ninguna vacuna ni resolver las disfunciones en la cadena de suministros. Asimismo, los intentos de contener la propagación del virus a través de apps de seguimiento con tecnologías de IA han generado tensiones, al comprometer la autonomía y la privacidad personales en favor de un bien superior.

Estos son los puntos débiles. Para bien o para mal, la situación actual ha acelerado el reconocimiento del hecho que diseñar IA para el bien común requiere más que diseñar una intervención tecnológica cuando aparecen problemas complejos en el sistema. En segundo lugar, la situación exige el diseño, desarrollo e implementación de tecnologías y herramientas de IA que busquen algo más que optimizar la eficiencia individual. Las ganancias de la hiperpersonalización de poco sirven en tiempos de crisis. Tendríamos que pensar en cambio en cómo rediseñamos estas tecnologías para plasmar una visión más integrada, diversa y holística del mundo. Ya se pueden entrever algunas posibilidades en esta línea, que están surgiendo a través de ideas y proyectos innovadores como Truluv.ai, CityShare/Canadà o el Projecte Alinear la IA amb els valors humans.

Pero vamos a dejar las proyecciones de futuro a los quiromantes. Apostamos, en cambio, por lo que (como ciudadanos digitales) sabemos y lo que estamos aprendiendo en estos días. Tenemos una oportunidad para reevaluar, reinicializar y reiniciar. En particular, examinaré la interseccionalidad de la IA a través de tres nociones clave: confianza, privacidad y contacto social. En concreto, examinaré lo que está en juego como cuando decidimos lo que tenemos que llevarnos porque no podemos estar sin ello al cruzar un portal para acceder a un nuevo mundo.

IA + confianza

Lo que sabemos: hay alrededor de 240 (o más) directrices y marcos éticos para el desarrollo de la IA. La condición de una IA antropocéntrica, que incluye aspectos como la justicia, la responsabilidad, la transparencia, la gobernanza democrática, etc., está en los fundamentos mismos de las políticas sobre IA, particularmente en los Estados Unidos. A principios de 2020, la Comisión Europea publicó el Libro Blanco La Inteligencia Artificial: una aproximación europea a la excelencia y la confianza. El libro describe opciones políticas sobre cómo lograr dos objetivos primordiales: promover la incorporación de la IA y encontrar soluciones a los riesgos asociados con ciertos usos de estas nuevas tecnologías. Además, el enfoque que articula el libro se basa en derechos y valores fundamentales, como la protección de la privacidad y la dignidad humanas.

Lo que está en juego: a pesar del creciente número de marcos, directrices, órdenes ejecutivas y libros blancos, la confianza en los sistemas de IA se complica en un punto importante: que depositemos nuestra confianza en un sistema no significa que el sistema sea “confiable”. Por ejemplo, una tecnología se puede diseñar y optimizar para la confianza a través de una heurística como la pregunta: “¿Los usuarios utilizan estas aplicaciones basadas en tecnología de IA?”. De ello se deduce que un mayor número de usuarios implicará mayores niveles de confianza. Pero esta pregunta elude una miríada de implicaciones como políticas corporativas deficientes en ciberseguridad, privacidad, seguridad, etc., sobre las que el consumidor juzga qué merece o no su confianza. Por ejemplo, en zonas donde Uber es el único medio de transporte disponible, un usuario que normalmente elige otro servicio porque desconfía de la política de Uber en lo que respecta a la privacidad, se encontrará con que la ausencia de opciones del mercado pesa más que su valoración personal. La pregunta entonces es la siguiente: ¿Quién decide qué es o no es “confiable”? ¿Hay otras alternativas heurísticas a tener en cuenta? Estas preguntas siguen abiertas para quien quiera explorarlas.

IA + privacidad

Lo que sabemos: la tensión entre seguridad y privacidad (y, en cierta medida, también la integridad) ha estado encima de la mesa durante toda esta crisis. Cuantos más gobiernos prioricen la trazabilidad y el seguimiento de los ciudadanos, más fuertes sonaran las alarmas de los defensores de la privacidad sobre la subsidiariedad de las libertades civiles de un movimiento claramente reaccionario. Como dijo Andrew MacLaughlin, jefe adjunto de Tecnologías para las Políticas de Internet de la Administración Obama y anteriormente jefe del equipo de políticas públicas global de Google, “es un error reducir las expectativas de privacidad en tiempos de crisis. Hacerlo es muy tentador, pero después es muy difícil revertirlo una vez se han cruzado según qué líneas rojas.”

Lo que está en juego: como vimos en la sección anterior, el impacto de segundo orden de este tipo de violaciones de la privacidad se basa en la capacidad del consumidor para confiar en las empresas de tecnología y/o en la administración. Este es un momento crítico tanto para la industria como para los políticos de cara a construir un nuevo equilibrio entre las necesidades de privacidad y seguridad pública. La apuesta conjunta de Apple i Google para construir un sistema de seguimiento operado por Bluetooth y de almacenamiento automático de las interacciones entre personas es solo el principio. Aún se desconoce la eficacia de la herramienta y depende de la adopción de la tecnología adecuada tanto como de la integración y pruebas adicionales de una estrategia de salud pública de mayor alcance. Si el crecimiento de la vigilancia tecnológica está aplanando significativamente la curva, ¿hasta dónde vamos a querer aumentar el control? Y, ¿realmente no podemos volver atrás una vez hayamos cruzado la línea roja? Además, mientras observamos cómo crece el poder de las estructuras del ecosistema tecnológico, recalibrar la capacidad de acción del consumidor debería ser una prioridad. Como también lo es pensar en alternativas para aspectos como la soberanía de los datos, los centros de datos personales y el poder de los algoritmos, con el fin de construir una infraestructura muy necesaria que haga posible un nuevo equilibrio y garantice la confianza.

IA + contacto social

Lo que sabemos: esta pandemia está desafiando el más primario de los instintos humanos: estar juntos. Hace más de un mes (al menos en los Estados Unidos) que empezó el confinamiento y muchos se sienten solos, inquietos y temerosos. Sin embargo, los avances tecnológicos y el acceso generalizado a la banda ancha ofrecen nuevas maneras de conectarnos a pesar de la distancia física (aparte del Zoom, que ahora está en todas partes) —desde la plataforma Love is Quarantine, hasta veladas rave en la nube con TikTok, pasando por las happy hours virtuales y QuarantineChat. Nos hemos dado cuenta rápidamente de que en ausencia de contacto físico hay, de hecho, posibilidades de “sentirse conectados” con los demás a través de la red. ¿Será este el acceso a una nueva normalidad que nos llevará a una mayor dependencia de la tecnología para sentirnos humanos?

Lo que está en juego: a medida que la fecha del final de la pandemia se va posponiendo surge la pregunta: ¿cuáles son los posibles efectos a largo plazo? ¿Es este tipo de interacción social sostenible? Aunque hace algunas décadas que se está llevando a cabo investigación en comunicación mediada y el impacto en el comportamiento y el desarrollo humano, el tema aún no ha recibido la atención que merece. Sin embargo, en tanto que cada vez son más las rutinas diarias que realizamos en línea y durante un período de tiempo más largo, tenemos que considerar el creciente espectro de puntos de contacto entre humanos y máquinas. En un extremo se hallan las interacciones aparentemente inócuas tales como instrucciones de voz de los GPS, y en el otro, tenemos ejemplos cada vez más numerosos de seres humanos que descargan sus estados emocionales y mentales sobre máquinas puras y duras, como Alexa o PARO, para su uso en terapias conductuales. En este espectro, vemos aflorar casos de depresión y ansiedad entre los adolescentes y en el uso de las redes sociales. Dado que nuestra dependencia de la tecnología crece (más allá de factores puramente económicos), también crece la urgente necesidad de necessitat urgent d’investigar l’impacte en nuestra salud mental individual y el bienestar general. Además, a medida que cambian las normas de comunicación personal e interpersonal, también lo harán las interacciones sociales. La pregunta es si este cambio en el comportamiento interpersonal cambiará la visión de lo que significa significa pertànyer a una comunitat i/o a una societat. Aún más crucial es la posible implicación en las estructuras de gobierno y el futuro de la democracia. Y aún más, ¿puede la IA ser al mismo tiempo beneficiosa y disruptiva en esta evolución?

Para algunos críticos, el reciente impulso de la IA y del conjunto de técnicas computacionales son el espejo de la humanidad, y reflejan tanto los puntos débiles como la capacidad de respuesta de nuestra sociedad a los cambios meteóricos tanto verticales como transversales. Pero este es un momento sin precedentes y el COVID es un acelerador. Con consecuencias como la escalada en el índice de desempleo, un sistema de salud deficiente y la migración de la enseñanza hacia plataformas en línea, la crisis nos empuja hacia un futuro que sólo habíamos empezado a vislumbrar. Por el momento, nos lo miraremos con cautela optimista y vamos a confiar en la capacidad de innovación y en resiliencia humana. El reto es mantener el paso tecnológico y cultural. Todos estamos llamados, personas, organizaciones y políticos, a comprender lo que está en juego y a ser lo suficientemente ágiles como para dar una respuesta adecuada.

  • Aviso

    Este artículo es obra de Kristine Gloria y no refleja necesariamente las opiniones de Aspen Institute.

Kristine Gloria

Kristine Gloria es directora adjunta de la Emerging Technologies Initiative del programa Aspen Digital en Washington, D.C. Antes de incorporarse en Aspen, fue investigadora visitante de la Internet Policy Research Initiative (IPRI) del MIT-CSAIL en Cambridge, MA. Allí realizó investigaciones sobre metodologías empleadas por miembros de las comunidades de interacción entre personas y ordenadores en el diseño de tecnologías de preservación de la privacidad. También ha sido Research Fellow en el Startup Policy Lab (SPL) y obtuvo una beca en el Centre for Society, Technology and Policy (CSTP) de la UC-Berkeley. Su tarea se centró en la seguridad de la privacidad y el diseño de políticas de drones municipales en la ciudad de San Francisco.