Desmontan el mito de los hackers todopoderosos: en Cambridge explican por qué las redes neuronales no han revolucionado el mercado de servicios clandestinos.

Desmontan el mito de los hackers todopoderosos: en Cambridge explican por qué las redes neuronales no han revolucionado el mercado de servicios clandestinos.

Predicciones grandilocuentes de expertos chocan con la cruda realidad de los foros cerrados.

image

Los temores sobre la inteligencia artificial en la ciberdelincuencia a menudo dibujan un panorama casi fantástico, donde sistemas autónomos vulneran la infraestructura y dirigen ataques por sí mismos. Un nuevo trabajo de Jack Hughes, Ben Collier y Daniel R. Thomas muestra una realidad mucho más cotidiana: la IA generativa aún no ha revolucionado la economía clandestina, y con más frecuencia se ha convertido en otra herramienta práctica para quienes ya sabían usar esquemas prefabricados.

Los autores del preprint, publicado en arXiv el 31 de marzo de 2026, estudiaron cómo la IA generativa, los chatbots, los asistentes de programación y las herramientas agentivas se discuten y se aplican en foros de ciberdelincuencia. La base fueron los datos CrimeBB del Cambridge Cybercrime Centre: más de 97.000 discusiones relevantes tras el lanzamiento de ChatGPT, además de un análisis cualitativo de 3.203 hilos.

El trabajo contrapone dos escenarios. Al primero, los autores lo denominan Stand-Alone Complex: una hipotética «organización criminal en una caja», donde la IA ayuda a una sola persona a automatizar toda una cadena de servicios delictivos. El segundo escenario — Vibercrime — es cuando el «vibe-coding» reduce la barrera de entrada, pero no cambia la estructura del mercado clandestino. Según los autores, la realidad está más cerca del segundo escenario, y hasta las conversaciones sobre un rápido aumento de los «vibe-delincuentes» parecen exageradas.

En las comunidades clandestinas sí se discuten activamente ChatGPT, Claude, Gemini, Grok, DeepSeek, Cursor y modelos LLM pirateados, incluido WormGPT. Pero el beneficio práctico de los modelos «oscuros» resultó ser menor de lo que suponían los medios y los informes de proveedores de seguridad. Los usuarios buscan más a menudo acceso gratuito, formas de eludir restricciones o sugerencias preparadas, que esquemas operativos que aporten un nuevo nivel de ataques.

Los asistentes de IA son más útiles para quienes ya saben programar. Para esos participantes, las herramientas sustituyen la búsqueda de errores, las chuletas y la copia de fragmentos de Stack Overflow. A los novatos les resulta más fácil tomar scripts ya hechos que entender el código generado por un modelo. En los foros también se debate con frecuencia que la generación a ciegas de código conduce a deuda técnica, errores y proyectos vulnerables.

Los autores hallaron aplicaciones más claras no en ataques complejos, sino en esquemas de baja rentabilidad: spam SEO, generación de sitios web, contenido, imágenes, perfiles falsos, estafas románticas y pequeños «ingresos pasivos». Allí la IA ayuda a escalar enfoques antiguos, pero al mismo tiempo incrementa la saturación del mercado y reduce la rentabilidad.

Una conclusión separada se refiere a las restricciones de protección en los modelos populares. Según los autores, las restricciones no detienen por completo a los atacantes motivados, pero aumentan el coste y la complejidad del abuso masivo. Tras 2024, los participantes de los foros se quejan cada vez más de que las vías efectivas de elusión se cierran rápidamente.

El estudio no excluye que grupos cerrados o operadores más profesionales utilicen la IA generativa de otro modo. Pero en el entorno clandestino abierto, hasta finales de 2025, los autores no encontraron indicios de un cambio estructural. Así, las redes neuronales más bien se han integrado en las viejas prácticas criminales, en lugar de crear una nueva clase de ciberamenazas.