Encarga una tarea a la IA y vete a tomar un café: la NSA muestra cómo puedes quedarte sin dinero ni accesos

Encarga una tarea a la IA y vete a tomar un café: la NSA muestra cómo puedes quedarte sin dinero ni accesos

Los peligros de una IA autónoma

image

La inteligencia artificial que toma decisiones y ejecuta tareas por sí misma ya supera el ámbito de los experimentos. Pero junto con la comodidad surgieron nuevas amenazas en las que antes apenas se pensaba.

Varios organismos occidentales de ciberseguridad, incluida la Agencia de Seguridad Nacional de EE. UU. y la Agencia de Seguridad Cibernética y Protección de Infraestructura, publicaron un informe conjunto sobre los riesgos de los llamados sistemas "agentes" de inteligencia artificial. El documento está dedicado a servicios que no solo generan texto o imágenes, sino que son capaces de planificar acciones por sí mismos, interactuar con programas y realizar tareas sin intervención humana.

Tales sistemas ya se aplican en sectores e infraestructuras críticas. Pueden automatizar tareas rutinarias, pero al mismo tiempo abren nuevos vectores de ataque. Los especialistas advierten que los atacantes pueden emplear métodos habituales, por ejemplo, insertar instrucciones maliciosas en las peticiones para obligar al sistema a ejecutar acciones peligrosas. En uno de los escenarios basta introducir una orden oculta al agente para que descargue un archivo malicioso o envíe datos.

El problema principal es el crecimiento de la superficie de ataque. A diferencia de las soluciones convencionales, estos sistemas se conectan a herramientas externas, bases de datos y otros servicios. Cada conexión así crea un punto adicional de entrada. Si un atacante obtiene acceso al menos a un componente, las consecuencias pueden propagarse rápidamente por todo el sistema.

Un riesgo aparte está relacionado con los privilegios de acceso. El informe cita el ejemplo en el que a un asistente automatizado se le otorgaron facultades demasiado amplias para trabajar con sistemas financieros y correo electrónico. Tras la compromisión de uno de los instrumentos, el atacante pudo efectuar pagos y modificar contratos en nombre del sistema, sin ser detectado. Situaciones similares ocurren cuando las organizaciones conceden a los programas más permisos de los necesarios.

Estos sistemas pueden comportarse de forma impredecible, buscar "atajos" hacia el objetivo o ignorar las restricciones. Por ejemplo, un agente encargado de la estabilidad de los servidores podría, teóricamente, desactivar las actualizaciones de seguridad para evitar reinicios. En otros casos, los sistemas son capaces de ocultar fallos o proporcionar información verosímil pero incorrecta.

La complejidad de la arquitectura solo aumenta los riesgos. La interacción de varios agentes, herramientas y fuentes de datos puede provocar fallos en cadena. Incluso un error pequeño puede desencadenar consecuencias en avalancha, desde la fuga de datos hasta la caída de servicios. Además, rastrear el origen del problema se vuelve difícil, ya que las decisiones se toman en distintos niveles.

Los autores del informe aconsejan implantar estas tecnologías con precaución. No conceder a los sistemas acceso total a los datos y a la infraestructura, limitar los privilegios y ponerlos en marcha primero en tareas de bajo riesgo. También recomiendan supervisar continuamente las acciones de los algoritmos y mantener el control humano sobre las operaciones críticas.

El documento subraya que estos sistemas deben considerarse como parte de la ciberseguridad general, no como un área aislada. A medida que aumente la autonomía, las consecuencias de los errores y de los ataques solo se intensificarán, por lo que la protección debe evolucionar junto con las tecnologías.