La ventana de contexto se ha duplicado, pero la batalla principal apenas comienza.
La empresa DeepSeek presentó una versión actualizada de su modelo de lenguaje insignia — V3.1 — que, según sus desarrolladores, está adaptada para usarse con los próximos chips chinos. La nueva versión se basa en el formato actualizado de punto flotante UE8M0, una variante de FP8. Está diseñada para ofrecer mejor compatibilidad con los futuros aceleradores de IA fabricados en China.
En la compañía aclararon que hasta ahora habían usado el formato estándar FP8 E4M3, y que el paso a UE8M0 se debe no tanto a optimizar el rendimiento como a garantizar la total compatibilidad con la nueva arquitectura de procesadores. DeepSeek no menciona fabricantes concretos de chips, pero antes se informó sobre una estrecha colaboración con Huawei, en particular sobre intentos de entrenar la siguiente generación del modelo (denominada provisionalmente R2) usando los aceleradores Ascend. Estos intentos resultaron fallidos: el modelo tuvo que volver a Nvidia H20. No obstante, Huawei sigue considerándose una posible plataforma para inferencia.
Es curioso que, pese a presentar V3.1 como una actualización importante, en realidad el modelo fue entrenado partiendo de un punto de control de la versión anterior V3. Las novedades no son cambios arquitectónicos, sino reajustes e integración de nuevos mecanismos de procesamiento de datos. Entre ellos está la unificación de los enfoques para generar respuestas "pensantes" y "no pensantes". Antes DeepSeek ofrecía dos variantes de modelos para tareas distintas, pero ahora ambos modos se combinan en un solo sistema, y el cambio entre ellos se realiza mediante plantillas de chat.
Este enfoque ya fue probado por otras empresas, incluida Alibaba, que en la primera mitad del año intentó implementar una idea similar en sus modelos Qwen3. Sin embargo, entonces descartaron la propuesta porque esa hibridación empeoraba los resultados.
En el caso de DeepSeek la situación, al menos en las pruebas, es distinta: el modelo muestra un aumento notable de precisión al generar respuestas sencillas (no pensantes), y al activar el modo de razonamiento se logra un ahorro de tokens necesarios para obtener un resultado relevante. Esto es especialmente importante para reducir el coste de operación del modelo en entornos de producción.
La ventana de contexto de V3.1 también se ha ampliado: ahora admite hasta 131072 tokens, el doble que la versión anterior. Sin embargo, en este parámetro DeepSeek todavía queda por detrás incluso de competidores chinos — por ejemplo, Qwen3 es capaz de procesar contextos de hasta un millón de tokens.
En la actualización se ha puesto especial énfasis en las capacidades de llamadas instrumentales e interacción con funciones externas —un componente clave para escenarios de IA agente. Según los resultados en Browsecomp —un benchmark que evalúa habilidades de navegación autónoma en el navegador— el nuevo modelo alcanzó una puntuación de 30, mientras que la actualización anterior (la versión R1 de mayo) obtuvo solo 8,9 puntos. Esto indica un progreso notable en la ejecución de tareas complejas que requieren interacción con fuentes externas de información en tiempo real.
Para desarrolladores están disponibles tanto los parámetros de pesos del modelo base como su versión especializada con ajuste por instrucciones —ambas publicadas en Hugging Face y ModeScope. El modelo también está integrado en el chatbot propio y accesible vía API.
Así, DeepSeek apuesta por una arquitectura preparada de antemano para trabajar con los futuros chips chinos. Esto subraya un objetivo estratégico: reducir la dependencia de tecnologías extranjeras y asegurar la autonomía tecnológica, especialmente ante las restricciones en el suministro de aceleradores occidentales.