El final de la primera década del siglo XXI supuso la clausura definitiva del sueño del capitalismo desregulado global como horizonte histórico de paz y prosperidad. A partir de 2008, la denominada Gran Recesión estableció nuevas coordenadas políticas caracterizadas por la normalización de la precariedad y el ascenso de los movimientos iliberales. De modo análogo, el cierre del segundo decenio del siglo XXI ha estado marcado por el final de las esperanzas depositadas en la tecnología digital como vía de solución extrapolítica —análoga y complementaria de la mercantil— a nuestros problemas económicos, culturales y sociales.
Durante al menos tres décadas –desde los años ochenta hasta el estallido de la crisis– el vértigo de la fragilización social y el riesgo vital asociados a la financiarización global, la flexibilidad laboral y la pérdida de soberanía política quedaron de algún modo contenidos por las expectativas de crecimiento económico y, sobre todo, el avance tecnológico. Resulta difícil cuestionar la descomposición de este programa social. La pretensión de una restauración de la lex mercatoria es sencillamente ciencia ficción: se enfrenta no sólo a límites internos infranqueables relacionados con el descenso de la tasa de ganancia sino, sobre todo, a barreras externas, materiales: a la imposibilidad medioambiental de un crecimiento económico infinito. Durante toda una década, la tecnología digital sustituyó al mercado como garante de esas esperanzas de progreso basadas en el equilibrio espontáneo, antes que en grandes intervenciones políticas.
En 2019 se hizo evidente también la fragilidad de esa apuesta por el solucionismo tecnológico. Tras una serie de escándalos y reveses judiciales asociados a las prácticas criminales de grandes corporaciones como Google o Facebook gobiernos e instituciones internacionales, desde la OCDE a la Comisión Europea, han coincido en señalar los peligros asociados a la digital dominance de un puñado de megacorporaciones de Silicon Valley. También la bibliografía especializada en tecnología digital se ha hecho eco de este giro: los diagnósticos de los problemas asociados al digital turn, muy periféricos a principios de la década, se han vuelto hegemónicos y el repertorio de males y problemas atribuidos a las tecnologías digitales es apabullante. Seguramente este catastrofismo es tan poco realista como el optimismo precedente. Y, de hecho, es llamativo que un rasgo que permanece invariable en esta dialéctica de apocalípticos e integrados es su naturaleza secuencial. Sucesivamente van apareciendo tecnologías que centralizan esperanzas o temores desproporcionados: realidad virtual, redes sociales, blockchain, big data y, en los últimos tiempos, la inteligencia artificial (IA).
Los debates tradicionales
La centralidad contemporánea de la IA en los discursos tecnológicos es llamativa porque constituye una resurrección guadianesca tras varias décadas de invisibilidad. La IA ocupó un lugar destacadísimo en los primeros debates respecto al alcance, las posibilidades, los riesgos y las implicaciones de la tecnología digital, tanto en la bibliografía académica como en la cultura popular. Tal vez el cénit de estas discusiones fuera la publicación en 1989 de La nueva mente del emperador, un best seller en el que el físico Roger Penrose desarrollaba un abigarrado conjunto de objeciones al programa denominado “IA fuerte” (groso modo, la posición de los teóricos que entendían el cerebro como un “ordenador biológico”). En realidad, la obra de Penrose era altamente especulativa, pero resulta sintomática de un momento de nuestra historia intelectual reciente en el que se consideraba que la discusión acerca del grado en que las máquinas podían replicar (o no) la inteligencia humana nos enseñaba algo acerca de la naturaleza de nuestra propia racionalidad.
De hecho, uno de los argumentos centrales de Penrose era una reformulación de un famosísimo experimento mental del filósofo John Searle conocido como “la habitación china”. En un artículo de 1980, posteriormente recogido en Minds, Brains and Science, Searle imaginaba una máquina que aparentemente es capaz de traducir del chino al español, hasta el punto de que es capaz de superar el test Turing. Pero, en realidad, dentro de ese ordenador, hay un humano aislado del exterior salvo por alguna vía para recibir los mensajes a traducir y emitir los textos traducidos. Esa persona no entiende el chino pero dispone de diccionarios y manuales que le permiten traducir el texto que recibe y, así, engañar a quien le solicita las traducciones. Para Searle (y Penrose) el experimento refuta las posiciones de los partidarios más vehementes de la inteligencia artificial, pues el conjunto de la habitación china supera el test de Turing (es decir, es capaz hacer creer a un observador externo que sabe hablar chino) aunque ninguno de sus componentes comprende el chino. El punto clave que Searle quería subrayar es que en la racionalidad humana la semántica, y no sólo la sintaxis, es crucial.
La IA es la versión tecnológica de ese autoritarismo postneoliberal. Un Leviatán tecnológico sin burócratas cuyo advenimiento percibimos como inevitable
En términos generales, las críticas a las posiciones más radicales de los teóricos de la IA tienden a subrayar las dimensiones dialógicas de nuestra racionalidad, esto es, las condiciones intersubjetivas de nuestra inteligencia. Llamamos inteligentes a seres con los que podríamos llegar en principio a un acuerdo acerca de la justificación de ciertos juicios teóricos, morales o estéticos. Es una definición que, de hecho, excluye a todos los animales no humanos y seguramente a cualquier máquina, por mucho que tanto unos como otros sean capaces de resolver problemas complejos, en algunos casos con más eficacia que las personas, o superar el test de Turing.
En cualquier caso, esta clase de debates declinaron a lo largo de los años noventa. En primer lugar porque las versiones tradicionales o simbólicas de la inteligencia artificial perdieron peso frente a las redes neuronales y otros desarrollos subsimbólicos o inductivos, que acapararon la atención académica y mediática. En segundo lugar, porque la expansión de Internet cambió completamente las preguntas que se consideraban relevantes en los debates acerca de la relación entre tecnología y racionalidad. En la época de la conexión global, la cuestión fundamental empezó a ser más bien en qué medida las máquinas transformaban la inteligencia humana mediante relaciones de hibridación. Internet y las redes sociales se entendieron a menudo como un espacio de concurrencia de fragmentos de conocimiento que se agrupan hasta componer una especie de mente colmena que nos da acceso a percepciones y comprensiones incrementadas. Poca gente siguió debatiendo sobre la posibilidad de programar inteligencias digitales similares a la humana porque a) las relaciones distribuidas parecían mucho más potentes y prometedoras y b) la propia racionalidad humana parecía quedar alterada mediante prótesis digitales.
IA posteórica
Posiblemente, la máxima expresión de este agnosticismo epistemológico posterior a la época heroica de la IA sea el Big Data. Para muchos investigadores sociales, la posibilidad de acceder a cantidades descomunales de información procedente de las redes digitales supone una auténtica revolución epistemológica: proporciona, por el tamaño y extensión de los datos, una nueva forma, más objetiva y precisa, de conocimiento, la mejor posible en estos momentos. Por primera vez, se nos dice, no tenemos que elegir entre tamaños muestrales o estudios en profundidad ni nos enfrentamos a situaciones donde no esté garantizada la significatividad de los cálculos. El volumen de los datos compensa cualquier otro problema metodológico: sesgos, errores, diseños muestrales, etc. El programa del Big Data se basa en una especie de inductivismo sencillo que promete una reducción extrema de la labor interpretativa mediante un uso aséptico de técnicas algorítmicas. De hecho, en ocasiones se ha llegado a hablar del “fin de la teoría” social gracias a la inteligibilidad directa que proporciona el Big Data.
Las críticas a este modelo subrayan, por el contrario, el bucle operativo que interrelaciona las herramientas de producción de conocimiento con los resultados de su aplicación. No sólo porque en el Big Data la información no matematizable queda invisibilizada, sino porque muchas de las recetas estadísticas que se emplean están diseñadas para usuarios interaccionando a través de redes sociales o de medios virtuales descentralizados, de modo que tales registros pueden carecer de contexto interpretativo fuera del espacio online. En otras palabras, el propio Big Data altera nuestra concepción de lo que puede ser entendido como investigación y conocimiento. Los objetos que consideramos susceptibles de ser investigados responden a fisonomías concretas que cambian no sólo la metodología sino la teoría social subyacente.
La aparición de sistemas de IA con una presencia práctica y cotidiana en nuestras vidas genera miedos o esperanzas pero, comparativamente, pocos debates epistemológicos acerca de su naturaleza
Es un problema central para entender el retorno contemporáneo de la IA, que está íntimamente relacionado con el ascenso del Big Data. No sólo, por supuesto, porque en el desarrollo de los sistemas expertos contemporáneos sea determinante la disponibilidad de grandes fuentes de datos, sino también porque su configuración actual ha heredado sus pretensiones ateóricas. No está muy claro qué implicaciones tendría que la persona que se encuentra en la habituación china tuviera acceso no a un conjunto de diccionarios, como planteaba Searle en su formulación original del problema, sino a Google Translate. Lo curioso es que no mucha gente parece preocupada por la cuestión.
La aparición histórica en nuestro tiempo de auténticos sistemas de inteligencia artificial con una presencia práctica y cotidiana en nuestras vidas genera miedos o esperanzas pero, comparativamente, pocos debates epistemológicos acerca de su naturaleza o de su congruencia o incongruencia con nuestra propia racionalidad. Es llamativo porque los mismos interrogantes de hace cuarenta años siguen en pie. En palabras de Margaret Boden:
“El alcance metodológico de la IA es extraordinariamente amplio. (…). Existen multitud de aplicaciones de IA diseñadas para innumerables tareas específicas que utilizan en casi todos los campos de la vida legos y profesionales por igual. Muchas superan hasta a los seres humanos más expertos. En ese sentido, el progreso ha sido espectacular. Pero los pioneros de la IA no solo aspiraban a sistemas especializados. También esperaban lograr sistemas con inteligencia general. (…) Según esos criterios, el progreso ha sido mucho menos impresionante” [1]1 — Margaret A. Boden, Inteligencia artificial, Madrid, Turner, 2017 .
Desde esa perspectiva, tal vez el auténtico desafío no sea describir el modo en que la IA está cambiando la sociedad, dando por hecho que tal cosa está sucediendo. En realidad, ese es un pronóstico arriesgado pues, en general, es extremadamente complicado asegurar qué tecnología va a resultar determinante en el medio plazo. A menudo tecnologías aparentemente secundarias terminan por desempeñar un papel central y, viceversa, tecnologías deslumbrantes quedan periclitadas poco después de su surgimiento. Una alternativa teórica interesante es invertir la perspectiva y tratar de pensar qué tipo de transformaciones sociales se han producido para que aceptemos con tanta naturalidad e inevitabilidad la presencia de sistemas de IA y dejemos de lado las preguntas gnoseológicas más profundas o inquietantes.
La IA como nuevo Leviatán
Sería absurdo infravalorar los avances espectaculares que se han producido en el campo de la IA pero es cierto que, como en el caso del Big Data, tendemos a invisibilizar los fallos y, sobre todo, las ambigüedades de estas tecnologías. Los bucles de retroalimentación negativa que generan fallos catastróficos en los algoritmos que se aplican ya a aspectos importantes de nuestra vida en común —educación, mercado de trabajo, justicia, finanzas…— son bien conocidos [2]2 — Cathy O’Neal, Armas de destrucción matemática, Madrid, Capitán Swing, 2018. . Se trata de problemas estructurales y persistentes que tienen que ver con los procesos de operacionalización —que, por definición, tienen un fuerte componente interpretativo y normativo— y la potencia de cálculo o la creciente sofisticación de la IA no sólo no los solucionan sino que incluso pueden amplificarlos.
Los medios de comunicación hegemónicos tienen una auténtica obsesión desde hace años con los efectos de la IA y la robotización sobre el empleo o la esfera pública. Así, se ha hablado mucho de la presencia de bots en Twitter, falsos usuarios que en realidad estarían creados mediante software. Es una amenaza electrónica real pero que, curiosamente, tiene su correlato en una distopía laboral. Hace tiempo que se conoce la existencia de granjas de clicks: factorías situadas en el sudeste asiático donde trabajadores humanos que padecen condiciones laborales penosas aumentan manualmente el número de likes y seguidores de sus clientes usando miles de teléfonos celulares. Ocurre algo similar con el escándalo de la llamada pseudo-inteligencia artificial. Se ha descubierto que algunas empresas tecnológicas de vanguardia que ofrecían servicios de inteligencia artificial en realidad estaban usando para ese trabajo a seres humanos mal pagados porque, sencillamente, es mucho más barato contratar personal precario que construir la tecnología desde cero. Es una estrategia que, en realidad, puso en marcha Amazon con su proyecto de Mechanical Turk, una plataforma de crowdsourcing ultraprecaria que sirve para encontrar trabajadores que realicen tareas simples y de bajo precio unitario que requieren un cierto nivel de inteligencia superior al de una máquina estándar. The Mechanical Turk es irónico hasta en su nombre. Fue anunciado, con un cinismo descomunal, como “inteligencia artificial artificial”. De hecho, Amazon se ha especializado en estas maniobras de prestidigitación: nos deslumbra con su propuesta de entregar sus envíos mediante drones pero, en realidad, fomenta condiciones laborales en sus almacenes y en sus redes de distribución que han sido calificadas de “esclavistas” en países como Alemania.
Siguiendo un patrón bien conocido desde los inicios del capitalismo, la automatización contemporánea se expresa a través de un doble mecanismo social, una de cuyas dimensiones es mucho más visible que la otra. Por un lado, es una vía efectiva para aumentar la productividad sustituyendo trabajadores humanos por máquinas. Pero, por otro, y en no menor medida, la automatización es una estrategia disciplinaria dirigida a descualificar y controlar la mano de obra humana. A menudo, el efecto de introducir IA en un centro de trabajo no es necesariamente la sustitución de humanos por robots sino la “robotización” de los trabajadores: hace que los empleados pierdan control sobre el proceso productivo y los hace más fácilmente reemplazables. De hecho, desde el inicio de la crisis, la automatización (o la amenaza de ella) ha servido para contener el aumento de la conflictividad laboral mediante mecanismos coercitivos mediados tecnológicamente. Uno de los casos más conocidos es, de nuevo, el de los almacenes de Amazon, en los que la supervisión de los trabajadores humanos ha sido casi completamente automatizada, mediante la monitorización permanente de la actividad laboral, hasta el punto de que las propias máquinas realizan recomendaciones de despido.
La “sociedad red” se ha revelado finalmente como el medioambiente idóneo para que prosperen algunos de los mayores monopolios de la historia
Durante muchos años la tecnología digital fue una compañera de viaje inseparable del librecambismo contemporáneo. Los partidarios de la mercantilización apostaron decididamente por las redes de comunicación como una condición de posibilidad material de la desregulación financiera, pero también como arma ideológica. El medioambiente digital fue entendido como una prolongación amable, dialogante y no monetarizada de los mercados globales. Del mismo modo que, según la ortodoxia económica, el mercado llega a puntos de equilibrio sin la intervención de un centro regulador, las redes sociales serían, desde una perspectiva ampliamente compartida, capaces de generar estructuras estables de sociabilidad a partir de la interacción no coordinada.
Hoy vivimos una época de irrupción de alternativas políticas desdemocratizadoras e iliberales en cuyas agendas la defensa del libre mercado ocupa un lugar secundario, en la medida que ha quedado supeditada a la preservación de la hegemonía de las elites nacionales. Desde el Frente Nacional francés al programa de gobierno de Donald Trump pasando por los partidarios del Brexit inglés o la Lega Nord, la salida que la derecha radical están proponiendo al declive de la globalización neoliberal es una apuesta por la recuperación de la soberanía política nacional arrebatada por los mercados globales, aliñada con políticas “de orden”: medidas dirigidas a contener la conflictividad social mediante la represión o la movilización ideológica.
Algo similar ocurre con los sucedáneos tecnológicos del mercado. La “sociedad red”, la gran esperanza de democratización e igualdad durante las décadas pasadas, se ha revelado finalmente como el medioambiente idóneo para que prosperen algunos de los mayores monopolios de la historia, megacorporaciones digitales que ningún gobierno está en condiciones de controlar. De igual modo, cada vez está más generalizada la imagen de las redes sociales no como un terreno promisorio de inteligencia incrementada sino como una selva de agresividad, vigilancia panóptica y fake news. Así que tal vez el creciente atractivo público de la IA pueda entenderse como parte del giro político e ideológico reactivo.
La visibilidad contemporánea de la IA —que los medios de comunicación retratan sistemáticamente como una irrupción incontenible— es el correlato digital de las tensiones sociales, fruto del derrumbe de la utopía neoliberal, que están alimentando los movimientos políticos antidemocráticos e iliberales. Las figuras políticas fuertes y neoconservadoras se legitiman como una alternativa al fracaso de la sociabilidad cosmopolita en un mundo percibido como conflictivo y amenazante. Las renuncias en términos de libertad o tolerancia son el precio a pagar a cambio de una promesa de defensa frente a un cúmulo indeterminado pero aterrador de peligros globales. La IA es la versión tecnológica —en cierto sentido, de nuevo, extrapolitica— de ese autoritarismo postneoliberal. Un Leviatán tecnológico sin burócratas cuyo advenimiento percibimos —esta es la clave de su legitimidad— como inevitable. La IA nos exige, como la derecha radical emergente, renuncias en términos de empleo, intimidad, libertad o soberanía política. Nos ofrece, a cambio, una promesa de calculabilidad y orden en un mundo de incertidumbres aterradoras. Una promesa, con toda certeza, tan falsa como la de los políticos de extrema derecha que apelan al narcisismo herido de sus votantes, pero depurada de atavismos y adherencias neofascistas mediante el lenguaje del ciberfetichismo.
-
Referències
1 —Margaret A. Boden, Inteligencia artificial, Madrid, Turner, 2017
2 —Cathy O’Neal, Armas de destrucción matemática, Madrid, Capitán Swing, 2018.

César Rendueles
César Rendueles és investigador, traductor, doctor en filosofia i actualment professor al Departament de Teoria Sociològica de la Universitat Complutense de Madrid. Ha estat professor associat a la Universitat Carlos III de Madrid i professor visitant a la Universidad Nacional de Colombia. També ha treballat al Círculo de Bellas Artes de Madrid com a director de projectes culturals i al col·lectiu de cultura alternativa Ladinamo. La seves obres giren entorn a l’epistemologia, la filosofia política i el paper de les xarxes socials i Internet sobre l’acció política i les relacions personals en les societats postmodernes actuals. És l’autor de llibres com Sociofobia (Capitán Swing, 2013), Capitalismo canalla. Una historia personal del capitalismo a través de la literatura (Seix Barral, 2015) i En bruto. Una reivindicación del materialismo histórico y Los (bienes) comunes (Icaria, 2016).