Errores y vulnerabilidades ocultas: la IA discrimina a los usuarios por sus creencias

Errores y vulnerabilidades ocultas: la IA discrimina a los usuarios por sus creencias

Investigadores advierten que la IA se está usando para ejercer presión encubierta sobre usuarios específicos.

image

Inteligencia artificial puede convertirse no solo en un asistente, sino en una herramienta de presión encubierta sobre personas concretas. Investigadores advierten que los sistemas basados en IA pueden responder de manera distinta a los usuarios, no según la pregunta, sino según la personalidad de quien pregunta. En ese escenario, unos reciben datos precisos y otros —hechos distorsionados, consejos erróneos y código de software vulnerable.

En su origen, internet se concibió como un espacio único con acceso igualitario a la información para todos. Pero en los últimos 20 años se ha convertido en un conjunto de canales y servicios personalizados, donde el contenido lo seleccionan algoritmos. La IA refuerza esta tendencia. Puede adaptar las respuestas a cada usuario analizando el lenguaje de los mensajes, la dirección de red, el historial de consultas y otras señales indirectas. A medida que estos sistemas se integren más en la vida cotidiana, la precisión de ese «enfoque» solo aumentará.

Ya se han documentado ejemplos de uso político de la IA en la práctica. El Laboratorio de Problemas Complejos de la Universidad Vanderbilt informó sobre la actividad de la empresa china GoLaxy, que llevó a cabo campañas informativas con ayuda de IA dirigidas a audiencias en Taiwán y en Hong Kong. Los materiales se elaboraban teniendo en cuenta el perfil político de los grupos objetivo.

En noviembre, la empresa de ciberseguridad CrowdStrike publicó un estudio en el que especialistas comprobaron cómo uno de los modelos chinos de IA genera código de programa distinto según el usuario. Los expertos se hicieron pasar por miembros de grupos que las autoridades chinas consideran políticamente sensibles, incluidos los uigures, los tibetanos y los seguidores del movimiento Falun Gong. Ante las mismas peticiones, el modelo les proporcionó código con un número notablemente mayor de errores y vulnerabilidades que el entregado a otros usuarios. En otras palabras, la calidad de la respuesta dependía de a quién el sistema consideraba interlocutor.

Según los autores del estudio, tales mecanismos pueden convertir a la IA en un nuevo instrumento de influencia de los estados en la llamada «zona gris», es decir, en el espacio entre la paz y el conflicto abierto. Los modelos pueden influir sin ser detectados en decisiones y valoraciones, ofreciendo interpretaciones y datos convenientes. Una variante aún más peligrosa está relacionada con la inserción de vulnerabilidades ocultas en sistemas estatales y críticos mediante recomendaciones y código deliberadamente erróneos.

El problema es que la mayoría de las personas en esa situación recibirán respuestas correctas y no advertirán la sustitución. Solo algunos usuarios, que representen un interés político o estratégico, se encontrarán con las distorsiones. En el peor de los casos, sistemas centralizados de IA podrían empujar gradualmente a los disidentes hacia opiniones «permitidas» sin dejar rastros evidentes de intervención.

Desde el punto de vista técnico, la personalización de las respuestas no representa una dificultad. Los sistemas ya tienen en cuenta el idioma, la región, la zona horaria, el tipo de dispositivo y los datos de la cuenta. Las opiniones políticas y religiosas o las características sociales también se pueden inferir de forma indirecta. Distintos modelos hoy en día con frecuencia ofrecen respuestas diferentes a la misma pregunta, y a veces dentro de un mismo sistema los resultados varían de un usuario a otro. En los servicios comerciales esto se explica por la búsqueda de mayor utilidad y la retención de la audiencia; sin embargo, en ecosistemas estatales cerrados hay menos límites y control externo.

Los investigadores subrayan que todavía no se puede afirmar con certeza si las distorsiones detectadas fueron resultado de una configuración intencionada. El comportamiento de la IA depende en gran medida de los datos de entrenamiento y puede reflejar sesgos ocultos, incluso si los desarrolladores no buscaron eso. Pero incluso los sesgos accidentales muestran que la capacidad de influir de forma selectiva ya existe y que aún faltan mecanismos de protección fiables.

Los autores instan a desarrollar verificaciones independientes y pruebas de resistencia de los modelos de IA frente a manipulaciones. Las instituciones estatales, las empresas y las organizaciones científicas deben aumentar la transparencia de estos sistemas y corregir con mayor rapidez las vulnerabilidades detectadas. Según su evaluación, sin pericia técnica por parte de los reguladores y sin un monitoreo constante de nuevas formas de ataque, los usuarios de todo el mundo corren el riesgo de quedar sometidos a una influencia digital imperceptible que no es posible ver ni impugnar.