
Por Erika Guevara Rosas
En febrero de 2025, Francia acogió la Tercera Cumbre de Acción sobre Inteligencia Artificial (IA). Pese a las promesas de reforzar el diálogo internacional para sentar las bases de una regulación de las tecnologías en desarrollo, al final fue una gran oportunidad perdida para conversar de forma significativa y honesta sobre los riesgos de la IA y su impacto negativo en los derechos humanos.
Para los defensores y defensoras de los derechos humanos, la cumbre puso de manifiesto que los responsables de políticas no comprenden ni conocen los perjuicios que los sistemas de IA causan cada día en las personas, ni tampoco de qué modo la codicia y el poder de las corporaciones están destruyendo nuestro mundo.
Desde la aparición de ChatGPT, que creó expectativas exageradas en cuanto a la IA, los responsables de políticas se hallan bajo el influjo constante de narrativas creadas por titanes tecnológicos para esquivar una normativa centrada en los derechos humanos significativa. Por ejemplo, en las cumbres anteriores sobre IA celebradas en Reino Unido y Corea del Sur, las narrativas apocalípticas existenciales —procedentes sobre todo del sector— dominaron los debates. Del mismo modo, las conversaciones de la cumbre de París, impulsadas principalmente por los Estados, convirtieron la soberanía de la IA en el tema central del evento: sus representantes promocionaban sus países como el “siguiente destino” para invertir en IA, subrayando que un panorama tecnológico local independiente contribuye a lograr un mayor bienestar público. En ambos casos, el discurso estuvo moldeado por varios actores poderosos, y no se abordaron los efectos negativos para los derechos humanos que agravan las tecnologías impulsadas por la IA.
Durante la cumbre francesa, no faltó tampoco una farsa sobre el progreso económico, promovida por el propio país anfitrión. Durante su discurso de apertura, el presidente Emmanuel Macron ofreció su propia charla comercial, centrándose en la potencial supremacía de Francia en el desarrollo de la IA. Ni una sola vez reconoció el presidente francés los efectos negativos de estas tecnologías en los derechos humanos ni los pasos necesarios para contar con una normativa vinculante.
A escala global, fue igualmente alarmante escuchar el primer discurso de política exterior de JD Vance, en el que instaba a una desregulación cada vez mayor de la IA. Del mismo modo, la Comisión Europea ha dado recientemente un giro de 180 grados con respecto a sus promesas de garantizar un marco normativo de la IA basado en los derechos humanos.
Si bien la UE se hecho valedora de un desarrollo y despliegue de la IA “fiable” y regulado, la agenda actual de la Comisión Europea ha cambiado drásticamente de rumbo. Tanto la presidenta de la Comisión, Ursula von der Leyen, como la vicepresidenta ejecutiva, Henna Virkkunen, prometieron que la UE reduciría la burocracia de las empresas. La Comisión ha sido fiel a su promesa, al descartar el desarrollo de unas normas sobre responsabilidad en materia de IA y rebajar las normas sobre responsabilidad corporativa.
Ahora los hechos indican claramente que la competitividad global y las capacidades de una tecnología soberana independiente son las prioridades clave para los Estados, aunque ello signifique deshacer el camino andado en avances normativos. Es lamentable que sea así a pesar de las innumerables investigaciones que ponen de manifiesto que la IA refuerza los prejuicios y plantea graves preocupaciones en materia de derechos humanos en ámbitos tales como la actuación policial, la guerra, la protección social y el empleo, entre otros.
Por ejemplo, en Reino Unido, Amnistía Internacional ha mostrado que los sistemas policiales predictivos refuerzan el racismo al elaborar perfiles injustos de las comunidades migrantes con el pretexto de “prevenir la delincuencia”. En Nueva York, un sistema de reconocimiento facial perteneciente a la policía erosiona los derechos civiles a la privacidad y afecta de manera desproporcionada a los grupos marginados, incluidas las personas que se manifestaron en la campaña Black Lives Matters. En las guerras, los sistemas de armas autónomos operan sin supervisión humana y actúan como máquinas de homicidio masivo. En la prestación de bienestar, la toma de decisiones mediante sistemas algorítmicos priva a las personas de necesidades básicas como la alimentación, la atención médica o la vivienda. La lista de perjuicios es interminable, al igual que el número de personas afectadas.
La siguiente cumbre se celebrará en India, lo cual es también motivo de preocupación. Dado el historial de abusos provocados por las tecnologías de IA en el país, es poco probable que una regulación basada en los derechos humanos ocupe un lugar destacado en la agenda. Amnistía Internacional ha documentado que el uso de un sistema de reconocimiento facial en la ciudad de Hyderabad ha desembocado en una vigilancia masiva que hace imposible caminar por la calle sin arriesgarse a ser expuesto a la tecnología de reconocimiento facial. Tras los informes de los medios de comunicación, Amnistía Internacional también reveló que el uso de un sistema automatizado, llamado Samagra Vedika, en el estado indio de Telangana impide recibir asistencia social a personas que cumplen los requisitos.
En la siguiente cumbre, las autoridades de los Estados deben reconocer que nos encontramos en una coyuntura crítica, en la que debemos contrarrestar el impulso desinhibido —tanto de las corporaciones multimillonarias como de las autoridades— a estimular economías de IA no comprobadas y a construir una extensa maquinaria estatal impulsada por la IA, basada en la desregulación y en monstruosas inversiones. Los gobiernos deben reconocer que la necesidad de que el despliegue tecnológico esté basado en los derechos humanos es más urgente que nunca, lo que significa, en esencia, que si un sistema tecnológico perpetúa el impacto negativo en los derechos humanos, nunca debería ponerse en marcha.
En un entorno global que cambia rápidamente y en el que asistimos a diario a una reacción adversa contra las libertades civiles, los Estados deben afrontar y abordar los perjuicios provocados por la IA, en lugar de fijar las reglas de nuestro futuro mano a mano con los gigantes tecnológicos. Deben responder a las peticiones de los grupos de la sociedad civil y de las comunidades afectadas y colaborar para garantizar que las empresas estén sujetas a normativas sobre IA vinculantes y exigibles que nos protejan a todos.