¿Puede la IA despedir a un jefe o vaciar las cuentas de una empresa? El director ejecutivo de Palo Alto Networks sobre los riesgos de los agentes de IA

¿Puede la IA despedir a un jefe o vaciar las cuentas de una empresa? El director ejecutivo de Palo Alto Networks sobre los riesgos de los agentes de IA

Analizamos por qué los principales expertos recomiendan no dar demasiado poder a los algoritmos.

image

La inteligencia artificial, convertida en un asistente imprescindible en los negocios, cada vez se percibe más como una fuente potencial de amenazas internas. Según la responsable del área de seguridad del servicio de análisis de Palo Alto Networks, Wendy Whitmore, en 2026 serán precisamente los agentes autónomos de IA los que puedan representar para las empresas el mayor peligro desde dentro.

El aumento rápido del número de estos agentes en el entorno corporativo genera preocupación entre los especialistas. Según las previsiones de los analistas de Gartner, para finales de 2026 los sistemas de IA especializados asumirán tareas en el 40% de las aplicaciones empresariales. En 2025 este porcentaje no alcanzaba el 5%. Esta dinámica, por un lado, ayuda a compensar parcialmente la escasez de personal en el ámbito de la seguridad informática, pero por otro crea nuevos vectores de riesgo.

Los agentes de IA aceleran el procesamiento de registros, la detección de amenazas y la corrección de vulnerabilidades, y permiten a los analistas centrarse en tareas estratégicas. Sin embargo, la automatización que escapa al control puede traducirse en que los sistemas creados para defenderse se conviertan en vulnerables. Sobre todo si se les conceden amplios privilegios de acceso, lo que provoca el efecto de «superusuario» —cuando el agente puede gestionar recursos críticos sin el conocimiento ni la intervención de los especialistas en seguridad.

Whitmore subraya la importancia de minimizar los privilegios de acceso de la IA —según los mismos principios aplicados a los empleados convencionales. El problema se agrava porque algunas empresas ya prueban escenarios en los que la IA aprueba operaciones financieras o firma documentos en lugar de los directivos.

Aunque estas tecnologías aumentan la eficiencia de la gestión, también generan riesgos de conductas indebidas por parte de los agentes. Basta con un solo ataque exitoso, por ejemplo mediante la inserción de instrucciones maliciosas o la explotación de vulnerabilidades, para que la IA empiece a actuar en beneficio de los atacantes: apruebe transferencias, elimine copias de seguridad o recopile datos confidenciales.

La peligrosidad de esos escenarios ya se confirma en la práctica. En 2025 los analistas de Palo Alto Networks documentaron casos en los que ciberdelincuentes usaron IA para automatizar ataques y generar nuevas técnicas de intrusión. En una de esas campañas, denominada «Anthropic attack», un grupo chino empleó la herramienta de IA Claude Code para recopilar inteligencia en varias organizaciones.

Los atacantes empezaron a trabajar activamente con modelos de lenguaje dentro de los sistemas corporativos, eludiendo las fases habituales de un ataque, como obtener el control del controlador de dominio. Esto indica que la IA no solo puede potenciar un ataque, sino también cambiar por completo su naturaleza.

Según Whitmore, la adopción de la IA recuerda la migración a la nube que comenzó hace dos décadas. Entonces, las mayores filtraciones de datos no se debían a la tecnología en sí, sino a una configuración deficiente y a la protección insuficiente. Lo mismo ocurre con la IA. Mientras el desarrollo de nuevos modelos avanza con rapidez, las medidas de seguridad quedan claramente rezagadas.

En un contexto de creciente autonomía de los agentes de IA, la tarea más importante es implementar reglas básicas: limitación de privilegios, seguimiento de acciones y detección oportuna de anomalías. Sin ello, la IA puede transformarse de una herramienta de defensa en un insider digital a pleno derecho.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!