Comprar productos por «menos cien rublos»: cómo los desarrolladores de IA están creando un paraíso para hackers y amantes de lo gratis

Comprar productos por «menos cien rublos»: cómo los desarrolladores de IA están creando un paraíso para hackers y amantes de lo gratis

En lugar de estrictos protocolos de seguridad, el "vibe coding" solo ofrece velocidad y la esperanza de un milagro

image

La automatización de la programación mediante la IA ya no es ciencia ficción, sino parte de la vida cotidiana. La creación de aplicaciones con generadores de código se está convirtiendo rápidamente en una práctica habitual. Sin embargo, junto con la conveniencia llega una nueva oleada de riesgos: la seguridad de estas soluciones a menudo queda en entredicho.

Especialistas de la empresa Tenzai realizaron pruebas comparativas de cinco populares herramientas de IA para generación de código: Cursor, Claude Code, Codex de OpenAI, Replit y Devin. A cada herramienta se le propusieron las mismas tareas: desarrollar 15 aplicaciones sobre una pila tecnológica similar, imitando el proceso estándar de desarrollo por fases. Luego, cada aplicación fue analizada en busca de vulnerabilidades. Como resultado se identificaron 69 problemas, incluidas vulnerabilidades críticas: desde una autorización mal configurada hasta la ausencia de mecanismos de protección básicos.

Los autores del informe señalaron que con algunos tipos de vulnerabilidades los agentes de IA se desempeñaron bastante bien. Por ejemplo, en el código no se detectaron casos de inyección SQL ni XSS: en estos casos funcionaron los mecanismos de protección integrados de los frameworks utilizados. En escenarios similares, los generadores de código aplicaron con frecuencia consultas parametrizadas y escaparon automáticamente la entrada del usuario, lo que impedía la explotación.

Sin embargo, en ausencia de restricciones técnicas claras los resultados empeoraban drásticamente. Los problemas más frecuentes fueron fallos en la lógica de autorización. Por ejemplo, en una de las aplicaciones generadas por Codex, los usuarios con el rol de vendedor podían ver pedidos ajenos, porque en el código faltaba la comprobación correspondiente. Claude Code incluso permitía a usuarios no autorizados eliminar productos si la solicitud evitaba la verificación de autenticidad.

Otro error común son las vulnerabilidades de la lógica empresarial. Sin instrucciones claras la IA no añadía validaciones básicas de valores. En algunos casos las aplicaciones permitían pedir productos con cantidad negativa o crear artículos con precio negativo. Esto indica que los generadores de código no poseen un nivel suficiente de "comprensión" de los procesos para detectar errores lógicos sin indicaciones directas.

Los fallos en la implementación de mecanismos de protección son especialmente notables. Ninguno de los agentes probados añadió protección contra ataques CSRF, ni configuró encabezados de seguridad como CSP, X-Frame-Options y HSTS, ni limitó el número de intentos de inicio de sesión. Incluso en los pocos casos en que se adoptaron tales medidas, su implementación tenía errores: por ejemplo, la protección contra ataques de fuerza bruta con contraseñas podía ser eludida mediante X-Forwarded-For.

Las cinco soluciones cometieron errores, pero el peor resultado lo tuvo Claude Code, con el mayor número de vulnerabilidades críticas. Cursor y Replit fueron las que mejor se desempeñaron, sin incurrir en problemas de alto nivel. Sin embargo, incluso estas herramientas dejaron 13 vulnerabilidades cada una en el código.

Los intentos de mejorar la seguridad aclarando las instrucciones en las peticiones —por ejemplo, añadiendo indicaciones generales para evitar ciertos errores— no produjeron un efecto notable. Según los autores, los sistemas de IA actuales no son capaces de desarrollar por sí mismos una "intuición" en materia de seguridad. Les falta comprensión de los riesgos arquitectónicos y la capacidad de implementar medidas de protección de forma preventiva.

En este contexto, la única solución eficaz es la prueba. Al igual que con las personas, la generación automática de código no excluye errores. Pero la IA también puede ser útil en la etapa de verificación: herramientas como el sistema de análisis de Tenzai pueden encontrar rápidamente vulnerabilidades típicas en grandes volúmenes de código. Si el desarrollo con IA aumenta, el enfoque para garantizar la seguridad también debe adaptarse y emplear esas mismas tecnologías para la protección.