Un método que hace lo visible invisible para la IA.
Investigadores de la Universidad de Carolina del Norte han desarrollado un nuevo método para engañar a los sistemas de inteligencia artificial que analizan imágenes. El método, llamado RisingAttacK, puede hacer que una IA “no vea” objetos que están claramente presentes en una fotografía.
La clave de esta tecnología reside en cambios imperceptibles al ojo humano. Dos imágenes pueden parecer idénticas, pero una IA verá un automóvil solo en una de ellas, mientras que en la otra lo ignorará por completo. Aun así, una persona será capaz de distinguir el coche en ambas fotos sin dificultad.
Este tipo de ataque representa una seria amenaza para la seguridad en áreas donde se utilizan sistemas de visión por computador. Por ejemplo, los delincuentes podrían impedir que un coche autónomo detecte semáforos, peatones u otros vehículos en la carretera.
Igualmente preocupante es su posible uso en medicina. Un atacante podría introducir código malicioso en un aparato de rayos X, haciendo que un sistema de diagnóstico basado en IA arroje resultados incorrectos. También se ven comprometidas las tecnologías de seguridad que dependen del reconocimiento automatizado de imágenes.
RisingAttacK funciona en varias etapas. Primero, el programa identifica todas las características visuales presentes en la imagen, y luego determina cuáles son cruciales para el objetivo del ataque. Este proceso requiere capacidad de cómputo, pero permite realizar modificaciones extremadamente precisas y mínimas.
“Queríamos encontrar una forma eficaz de vulnerar los sistemas de visión por computador, ya que se usan con frecuencia en contextos que afectan directamente la salud y seguridad humanas”, explica Tianfu Wu, uno de los autores del estudio.
Los desarrolladores probaron su método contra cuatro de los sistemas de visión por computador más utilizados: ResNet-50, DenseNet-121, ViTB y DEiT-B. RisingAttacK resultó eficaz contra todos ellos, sin excepción.
Los investigadores subrayan la importancia de detectar este tipo de vulnerabilidades. Solo conociendo la amenaza es posible desarrollar defensas efectivas. Por eso, el equipo ya trabaja en métodos de protección frente a estos ataques.
Actualmente, los científicos exploran el potencial de RisingAttacK contra otros tipos de sistemas de IA, incluyendo los modelos de lenguaje de gran tamaño (LLM). Esto permitirá evaluar la magnitud total de las amenazas que plantea.