Arregló el sonido y perdió la billetera: usuarios de Mac caen ante los "consejos bienintencionados" de la IA

Arregló el sonido y perdió la billetera: usuarios de Mac caen ante los "consejos bienintencionados" de la IA

Cómo la confianza en la IA permitió a delincuentes infectar Macs con el infostealer AMOS, presentado como un consejo inofensivo.

image

Los especialistas de Kroll descubrieron un nuevo vector de entrega de AMOS InfoStealer, en el que los atacantes aprovechan la confianza de los usuarios en plataformas de IA. Durante el incidente a la víctima se le mostró una ventana que parecía una sesión legítima de ChatGPT, donde, haciéndose pasar por una corrección de un problema de sonido en macOS, le ofrecieron ejecutar un comando de terminal. En realidad ese comando descargaba e instalaba AMOS — un infostealer que, tras iniciarse, comenzó a robar datos del dispositivo. Al manipular la interfaz y la autoridad de la marca ChatGPT, los atacantes lograron que el usuario percibiera las instrucciones maliciosas como seguras.

En Kroll señalaron que la víctima en efecto visitó una página que recordaba al chat original de ChatGPT y siguió los "consejos" presentados allí. El comando copiado en el terminal resultó ser un indicador de compromiso de AMOS: descargaba un script malicioso que servía de punto de entrada para la posterior instalación de malware y la exfiltración de datos. El intento de Kroll de reproducir el escenario mostró que el ChatGPT legítimo se niega a generar comandos de ese tipo y muestra advertencias de seguridad, lo que indica el uso de una interfaz falsa o de una sesión preparada de antemano para desviar al usuario.

Un papel aparte en la ataque lo jugó la plataforma publicitaria Google Ads: los atacantes promovían el "chat" malicioso a través de los resultados de búsqueda, colocándolo en las primeras posiciones y reforzando el efecto de confianza. Esto se enmarca en la tendencia de los últimos años, cuando los ciberdelincuentes usan activamente la publicidad de Google para el malvertaizing y el phishing, suplantando recursos legítimos con copias visualmente precisas.

El caso de AMOS subraya cómo la ingeniería social se oculta bajo una interacción técnica habitual: un consejo sencillo "prueba esto para recuperar el sonido" resultó ser más eficaz que muchos correos de phishing tradicionales. En el contexto de la rápida expansión de las herramientas de IA, el riesgo solo aumenta. Más del 80 % de las empresas de la lista Fortune 500 ya han integrado ChatGPT en sus procesos de trabajo, casi la mitad de todas las empresas lo utiliza de forma permanente, y millones de empleados emplean la IA para resolver tareas laborales, incluida la resolución de problemas técnicos. En ese entorno, un escenario malicioso exitoso puede escalar de inmediato: desde una infección local hasta incidentes masivos.

Los especialistas enfatizan la necesidad de capacitar al personal, validar estrictamente las fuentes de instrucciones técnicas y monitorizar comandos sospechosos, especialmente en macOS. Las medidas técnicas son efectivas solo en combinación con una mayor concienciación: si el usuario confía en la fuente, puede ejecutar cualquier código malicioso sin sospechar el peligro.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!