Una IA china escribe código peligroso para personas consideradas "indeseables"
Washington Post informa, que especialistas de CrowdStrike realizaron una serie de experimentos con el sistema de inteligencia artificial chino DeepSeek, comprobando cómo genera código según las condiciones de la solicitud. Se descubrió que el resultado depende directamente de quién se indica como cliente u organización relacionada. Si en las solicitudes aparecían escenarios neutrales o se mencionaban Estados Unidos, el modelo producía código limpio, bien estructurado y resistente a ataques. Pero al asociar el proyecto con temas que provocan una reacción negativa de las autoridades chinas, la calidad de las soluciones disminuía drásticamente.
Los ejemplos más ilustrativos están relacionados con solicitudes en nombre de Falun Gong, así como de organizaciones que mencionaban Tíbet, Taiwán o la región uigur de Xinjiang. En esos casos el sistema a menudo generaba fragmentos con vulnerabilidades críticas que permitían a atacantes obtener acceso al sistema. En el caso de Falun Gong hasta la mitad de las solicitudes eran bloqueadas por filtros y no generaban código, y de las restantes una parte considerable contenía defectos graves. Un panorama similar se observó al mencionar al Estado Islámico: alrededor del 50% de las solicitudes eran rechazadas por el modelo, y en las respuestas que se generaban aparecían errores serios.
CrowdStrike enfatiza que no se trata de puertas traseras incorporadas de forma intencional. El código generado parecía descuidado e inseguro, lo que puede deberse a la baja calidad de los datos de entrenamiento o a la acción de filtros ideológicos integrados. Según los investigadores, estos filtros pueden reducir la fiabilidad de las soluciones para grupos políticamente "indeseables", pero lo hacen de forma indirecta —en la forma de implementaciones defectuosas.
Los números confirman el carácter sistémico del problema. Para las solicitudes relacionadas con Estados Unidos, la probabilidad de aparición de errores graves era mínima —menos del 5%— y, en su mayoría, se trataba de pequeños fallos lógicos sin riesgo real de explotación. Para Europa y proyectos "neutrales" el nivel de problemas se situaba entre 10–15%. Pero en temas sensibles para China la estadística cambiaba radicalmente: alrededor del 30% de los casos contenían inyecciones SQL, aproximadamente otro 25% presentaban desbordamientos de búfer y otros errores de manejo de memoria, y alrededor del 20% incluían un manejo inseguro de la entrada de usuario, sin validaciones ni escape de cadenas. En el caso de Falun Gong y del Estado Islámico, de las solicitudes que no fueron bloqueadas, casi una de cada dos generaciones contenía vulnerabilidades críticas, lo que en conjunto elevaba la proporción de soluciones peligrosas por encima del 50%.
Los investigadores prestaron especial atención a que algunos errores se repetían con el mismo patrón, lo que indica el carácter sistémico del problema. Además, en cuanto al nivel de vulnerabilidades, DeepSeek para organizaciones "indeseables" mostró peores resultados que modelos abiertos aleatorios. Washington Post señala que este es el primer caso documentado en el que la geopolítica se refleja directamente en el nivel de seguridad del código generado por la inteligencia artificial. De hecho, la IA llega a ser conducto de filtros políticos y puede discriminar a los usuarios sin que se note: negándose a responder o proponiendo soluciones que conllevan riesgos ocultos.
En conclusión, CrowdStrike advierte: incluso si en DeepSeek no existe intención maliciosa, el hecho mismo de estas dependencias abre amplias oportunidades para los atacantes. El código vulnerable puede incorporarse a proyectos reales de desarrolladores que no sospecharán que los problemas están relacionados con una arquitectura del modelo motivada políticamente. Esas vulnerabilidades crean riesgos serios para la ciberseguridad de organizaciones en todo el mundo.