Las conversaciones con chatbots pasaron a ser de dominio público y los hackers obtuvieron las claves de millones de cuentas.
Investigadores de Cybernews informaron sobre una grave filtración de datos relacionada con la empresa Vyro AI, conocida por sus populares aplicaciones generativas para Android e iOS. Un servidor Elasticsearch abierto, propiedad del desarrollador, publicaba sin protección en tiempo real registros de 116 GB recopilados de tres servicios de la empresa: ImagineArt con más de 10 millones de instalaciones en Google Play, Chatly con cientos de miles de descargas y el chatbot web Chatbotx, visitado por aproximadamente 50.000 usuarios al mes.
Vyro AI tiene su sede en Pakistán y afirma que el total de descargas de sus aplicaciones supera los 150 millones, y que cada semana se crean alrededor de 3,5 millones de imágenes. Según los investigadores, el servidor descubierto contenía registros tanto de los entornos de producción como de prueba, que almacenaban información de los últimos 2–7 días. La base fue indexada por motores de búsqueda de IoT por primera vez en febrero, lo que pudo haber dado a los atacantes acceso a los datos durante varios meses.
En la filtración se incluyeron las consultas de los usuarios a la IA, tokens de autenticación Bearer, así como datos sobre los dispositivos y navegadores utilizados. Ese conjunto de información permitía monitorizar las acciones de las personas, secuestrar cuentas y extraer datos personales de los chats. La situación resulta especialmente peligrosa en el contexto de ImagineArt, que supera los 30 millones de usuarios activos. Los tokens comprometidos permitirían tomar el control de perfiles, acceder al historial de conversaciones y a las imágenes generadas, así como usar funciones de pago a expensas de los propietarios.
El riesgo adicional está relacionado con la divulgación de las propias consultas de los usuarios. Los diálogos con redes neuronales a menudo contienen datos privados que las personas nunca publicarían de forma abierta. Que esa información caiga en manos ajenas puede acarrear serias consecuencias reputacionales o financieras.
La revelación de la información sobre Vyro AI se produjo por fases: el problema se detectó el 22 de abril de 2025, se notificó a la empresa el 22 de julio y luego se involucró al centro nacional de respuesta CERT el 28 de julio.
El caso demuestra que, en el afán por ocupar un lugar en el mercado de IA de rápido crecimiento, los desarrolladores a veces descuidan la protección de los datos. Mientras tanto, los usuarios confían cada vez más a los sistemas generativos de IA sus ideas, documentos e incluso información confidencial. Incidentes como este solo subrayan que la seguridad debe convertirse en una prioridad obligatoria.
Problemas similares afectan también a grandes actores. Por ejemplo, en agosto, los usuarios se encontraron con que sus conversaciones con ChatGPT y Grok estaban disponibles en la búsqueda de Google debido a una función insegura de intercambio de enlaces, que más tarde se tuvo que eliminar.
Investigadores de Cybernews también recientemente mostraron que el chatbot de Expedia podía usarse para generar instrucciones para fabricar artefactos incendiarios, lo que ilustra claramente los riesgos de lanzamientos sin la debida preparación. Incluso OpenAI, con su último modelo GPT-5, no pudo evitar problemas de seguridad: equipos de investigación lograron vulnerar las restricciones en solo un día después del lanzamiento.