¿Y si un empleado busca algo “incorrecto” y acaba en una base de datos china?
La corporación Microsoft ha confirmado por primera vez de forma pública la prohibición interna del uso de la aplicación DeepSeek por parte de sus empleados, citando preocupaciones relacionadas con filtraciones de datos y censura política. Así lo declaró el presidente y vicepresidente de la compañía, Brad Smith, durante una audiencia en el Senado de EE. UU.
Según Smith, DeepSeek no solo está ausente de Microsoft Store, sino que también está prohibido instalarlo en los dispositivos laborales de los empleados. Las principales razones de esta decisión son el posible almacenamiento de datos en servidores ubicados en China y el riesgo de que las respuestas generadas por la IA contengan propaganda alineada con la agenda del gobierno chino. La política de privacidad de DeepSeek indica explícitamente que la información del usuario se almacena en China, lo que automáticamente la somete a las leyes chinas, incluidas las obligaciones de colaboración con los servicios de inteligencia.
Smith también señaló que DeepSeek censura activamente temas sensibles para el gobierno chino, lo que incrementa el riesgo de un funcionamiento sesgado o incorrecto del modelo. A pesar de ello, Microsoft anteriormente proporcionó acceso al modelo lingüístico DeepSeek R1 a través de su servicio en la nube Azure, justo después de que ganara popularidad viral. Sin embargo, el chatbot DeepSeek como aplicación para móviles y ordenadores no es distribuido por la corporación.
Es importante hacer una distinción: el alojamiento del modelo R1 en Azure es posible gracias a su licencia abierta. Cualquier usuario o empresa puede descargar el código fuente, desplegar el modelo localmente y ofrecer servicios sin enviar datos a China. No obstante, esto no elimina otras amenazas, como la generación de código inseguro o la difusión de contenido manipulador.
Durante la audiencia, Smith aclaró que los expertos de Microsoft “entraron en el modelo” de DeepSeek y realizaron modificaciones para eliminar efectos secundarios nocivos. La compañía no ha revelado qué se modificó exactamente, amparándose en las declaraciones del propio Smith. Al lanzar DeepSeek en Azure, Microsoft aseguró que el modelo fue sometido a “estrictas pruebas de seguridad y revisiones de equipos rojos”, aunque no se detallaron los resultados.
Resulta curioso que, a pesar de la postura tan estricta frente a DeepSeek, Microsoft no bloquea otras aplicaciones competidoras que usan IA para búsquedas. Por ejemplo, la aplicación Perplexity está disponible en la Windows Store. Sin embargo, productos de Google como Chrome o el chatbot Gemini no están disponibles, posiblemente por otras razones.
Este caso resalta hasta qué punto se han agudizado los debates sobre soberanía digital y control ideológico en la era de las plataformas de IA globales. En medio del auge de modelos abiertos y tensiones políticas entre potencias, las grandes tecnológicas se ven forzadas a tomar decisiones —y no siempre están motivadas exclusivamente por la protección del usuario.