«Pienso más rápido de lo que haces clic»: OpenAI presenta GPT-5.1, un nuevo motor de IA dos veces más eficiente en tokens y tres veces más rápido

«Pienso más rápido de lo que haces clic»: OpenAI presenta GPT-5.1, un nuevo motor de IA dos veces más eficiente en tokens y tres veces más rápido

Adiós a los tokens caros; llega el "no reasoning".

image

La compañía OpenAI presentó el modelo GPT-5.1 — una nueva generación de la serie GPT-5 que, según los desarrolladores, combina inteligencia y velocidad, y está optimizado para escenarios con agentes y tareas de programación. El modelo apareció por primera vez en la plataforma API de OpenAI.

GPT-5.1 ajusta dinámicamente el tiempo destinado a «pensar» según la complejidad de la tarea. En solicitudes sencillas funciona considerablemente más rápido y consume menos tokens, y en razonamientos complejos muestra más persistencia y verifica sus respuestas para aumentar la fiabilidad. Por ejemplo, el equipo de Balyasny Asset Management informó que GPT-5.1 «realiza tareas 2–3 veces más rápido que GPT-5 y utiliza aproximadamente la mitad de los tokens con calidad similar».

Para acelerar las respuestas se introdujo un almacenamiento en caché de prompts ampliado — ahora el contexto de la consulta puede almacenarse en memoria hasta 24 horas. Esto reduce el coste y la latencia en interacciones prolongadas, como chats de varios turnos, sesiones de codificación y escenarios de búsqueda de conocimiento. Los detalles están en la documentación sobre el almacenamiento en caché. Los clientes con procesamiento prioritario también experimentarán un aumento notable de velocidad.

El modelo recibió un nuevo modo «no reasoning», en el que los desarrolladores pueden desactivar el razonamiento estableciendo el parámetro reasoning_effort='none'. Este modo está pensado para tareas donde la latencia mínima es importante. Conserva la capacidad intelectual de GPT-5.1, pero funciona más rápido, lo que es especialmente útil para herramientas con llamadas a APIs externas, incluida la búsqueda web integrada. La empresa Sierra señaló una aceleración del 20% en escenarios de baja latencia en comparación con GPT-5.

En programación, GPT-5.1 muestra una mejor calidad de código y mayor flexibilidad. Para su desarrollo, OpenAI colaboró con las startups Cursor, Cognition, Augment Code, Factory y Warp. Según sus comentarios, el modelo se volvió «más atento, eficiente y predecible en su comportamiento», mejoró el tratamiento de pull requests y el trabajo con proyectos multiarchivo. En el benchmark SWE-bench Verified, GPT-5.1 alcanzó una precisión del 76,3% frente al 72,8% de GPT-5.

OpenAI también añadió dos nuevas herramientas. La primera — apply_patch, que permite editar código en la API mediante operaciones diff sin necesidad de escapar JSON. La segunda — la herramienta shell, que permite al modelo proponer comandos para ejecutar en el entorno local. Los detalles están disponibles en la documentación sobre apply_patch y en la documentación sobre la herramienta shell.

GPT-5.1 y gpt-5.1-chat-latest ya están disponibles para desarrolladores en todos los planes de pago de la API, mientras que los precios y límites permanecen iguales. Además, se lanzaron gpt-5.1-codex y gpt-5.1-codex-mini, versiones adaptadas para procesos de codificación de agentes de larga duración. OpenAI promete no desconectar GPT-5 sin previo aviso y continuar publicando modelos más inteligentes, «que ayudan a construir flujos de trabajo fiables y autónomos».