Documentos falsos y amenazas personalizadas quedan totalmente en manos de algoritmos

La inteligencia artificial, que hasta hace poco se consideraba una herramienta auxiliar en el ámbito de la seguridad informática, ahora pasa al primer plano y se convierte en el núcleo de las amenazas digitales. La nueva previsión de Google Cloud para 2026 muestra que en los próximos meses el equilibrio de fuerzas entre atacantes y defensores cambiará: la IA no solo ayudará a los ciberdelincuentes, sino que empezará a gestionar por completo sus operaciones.
Los especialistas señalan que la transición del uso experimental de algoritmos a su aplicación generalizada en esquemas delictivos está prácticamente completada. La automatización dará a los malhechores la capacidad no solo de escribir código y enviar correos de phishing sin intervención humana, sino también de adaptar sus campañas al comportamiento de las víctimas, aprendiendo de sus propios errores. Estos sistemas podrán imitar a las personas, explotar vulnerabilidades en el software y reescribir su propio código malicioso en segundos.
Un peligro particular lo constituyen las llamadas sistemas de IA agente, capaces de ejecutar de forma autónoma etapas sucesivas de un ataque —desde el reconocimiento y la selección de la víctima hasta la implantación de un cifrador y la extracción de datos—. Este enfoque permitirá llevar a cabo campañas de forma continua y con costes mínimos, lo que aumentará radicalmente la escala de las amenazas.
Al mismo tiempo que crecen las herramientas autónomas, se intensifica el problema de un nuevo tipo de ataques. Se trata de las llamadas inyecciones de instrucciones —manipulaciones ocultas en las que el atacante obliga a una red neuronal a violar sus propias reglas y a ejecutar órdenes peligrosas—. En 2026, según la estimación de Google Cloud, estos ataques se volverán masivos: las empresas integran con mayor frecuencia potentes modelos de lenguaje en sus productos y procesos de negocio, creando condiciones ideales para su explotación.
Merece atención la ingeniería social. El engaño sigue siendo el arma principal de los atacantes, pero ahora con el apoyo de la IA se vuelve casi indistinguible de la comunicación real. El informe indica que el factor humano sigue siendo el eslabón débil, y ataques como el phishing por voz (vishing) alcanzan un nuevo nivel. Ahora la inteligencia artificial puede clonar las voces de directivos o del personal de soporte, creando guiones telefónicos convincentes para extraer datos y acceder a sistemas internos.
Al mismo tiempo, los delincuentes están adoptando métodos inusuales para introducir cifradores: por ejemplo, ocultando comandos maliciosos en textos y anotaciones generados automáticamente. Contenidos aparentemente inocuos pueden contener instrucciones que el usuario o un agente de IA ejecuta de forma automática, infectando así el dispositivo.
Google Cloud también señala que la combinación de extorsión, robo de datos y chantaje multinivel seguirá siendo la forma más destructiva de ciberdelincuencia en 2026. El desarrollo de la IA acelera todos sus componentes: la generación de documentos falsos, el procesamiento de la información robada y la personalización de las amenazas ahora las realizan algoritmos en lugar de personas.
La empresa subraya que está tomando medidas para proteger sus propios modelos contra manipulaciones. La defensa se basa en una arquitectura multinivel, que incluye el entrenamiento de sistemas para filtrar solicitudes sospechosas, la imposición de restricciones lógicas a nivel de infraestructura y la confirmación obligatoria de acciones relacionadas con riesgos. Se emplean clasificadores automáticos para descartar instrucciones maliciosas, se refuerza el foco de los modelos en las intenciones del usuario y se depuran los resultados antes de su presentación.
No obstante, los especialistas de Google Cloud advierten: no se trata de una amenaza potencial de futuro, sino de una realidad presente. Según sus pronósticos, 2026 será el momento en que la IA cambiará definitivamente el panorama de las ciberamenazas —no solo aumentando la eficacia de los sistemas de defensa, sino transformando los ataques en mecanismos autónomos capaces de operar sin intervención humana.