Merlin, Copilot y Monica… No son extensiones: son caballos de Troya.
Investigadores del University College de Londres y de la Universidad del Mediterráneo en Reggio di Calabria (Italia) llevaron a cabo el primer estudio a gran escala sobre privacidad en asistentes generativos de inteligencia artificial para navegadores web y descubrieron que incluso las extensiones más populares y aparentemente “seguras” recogen y transmiten activamente datos personales sensibles de los usuarios. Y lo hacen sin aplicar medidas de protección adecuadas y, en muchos casos, sin el conocimiento del usuario.
Se trata de herramientas como ChatGPT for Google, Merlin, Copilot (sin relación con la aplicación homónima de Microsoft), Monica, Sider, TinaMind y otras. Estas integran IA generativa directamente en el navegador, ofreciendo respuestas automáticas, resúmenes de páginas, navegación asistida y ejecución de tareas complejas. Sin embargo, a la par, obtienen amplias capacidades para rastrear la actividad del usuario y construir perfiles detallados sobre su comportamiento.
Para su experimento, los científicos simularon la vida digital de un “milenial adinerado de California” e interactuaron con los asistentes mientras realizaban tareas cotidianas: desde búsquedas informativas hasta operaciones bancarias en línea. Descubrieron que algunas extensiones enviaban a sus servidores el contenido completo de las páginas visitadas, incluyendo todo lo que se mostraba en pantalla. En el caso de Merlin, incluso se transmitían los datos introducidos en formularios, como credenciales bancarias o información médica.
Las extensiones Sider y TinaMind, además de las preguntas formuladas por el usuario, compartían con servicios de análisis externos —como Google Analytics— identificadores como la dirección IP. Esto abre la puerta al rastreo entre sitios web y a la publicidad dirigida. De todas las extensiones evaluadas, solo una —Perplexity— no mostró indicios de personalización o recopilación de datos con fines de perfilado.
Algunas herramientas, entre ellas ChatGPT for Google, Copilot, Monica y Sider, analizaban el comportamiento del usuario para inferir su edad, género, nivel de ingresos e intereses, utilizando esta información para ajustar sus respuestas, incluso durante sesiones posteriores. La situación se agrava porque la mayoría de estos asistentes no operan con modelos locales en el navegador, sino que se apoyan en APIs remotas que pueden activarse automáticamente sin intervención directa del usuario.
Estas llamadas a servicios externos con frecuencia transmiten la estructura HTML completa de la página (DOM), y en algunos casos también los datos introducidos en formularios. Además, las pruebas demostraron que ciertas extensiones —incluidas Merlin y Sider— seguían registrando la actividad del usuario incluso al activar el modo de navegación privada, lo cual contradice el propósito de dicha funcionalidad.
Los autores del estudio advierten que estas capacidades permiten un acceso sin precedentes a áreas de la actividad en línea que tradicionalmente se consideraban privadas, lo que demanda una intervención regulatoria urgente. Aunque las pruebas se realizaron en Estados Unidos y no se evaluó la compatibilidad con legislaciones como el GDPR europeo o las normas británicas, los investigadores estiman que muchas de las prácticas detectadas probablemente violarían los estándares más estrictos de esas jurisdicciones.