OpenAI lanza GPT-5.5-Cyber, un "hacker" de IA, y aclara a quiénes no debe atacar.

OpenAI lanza GPT-5.5-Cyber, un "hacker" de IA, y aclara a quiénes no debe atacar.

OpenAI halla la forma de vender servicios de pentesting a las grandes empresas.

image

OpenAI abrió el acceso al nuevo modelo GPT-5.5-Cyber, capaz de ayudar en la búsqueda de vulnerabilidades, el análisis de malware y la verificación de la seguridad de los sistemas. La compañía ya entregó el modelo a pruebas limitadas a organizaciones responsables de la protección de la infraestructura crítica. Al mismo tiempo OpenAI amplió el programa Trusted Access for Cyber, a través del cual los especialistas en ciberseguridad obtienen acceso a versiones más «permisivas» de GPT-5.5.

La compañía estableció niveles de acceso a los modelos. El GPT-5.5 estándar funciona con restricciones básicas y es adecuado para tareas cotidianas. El GPT-5.5 con Trusted Access for Cyber recibió filtros menos estrictos para escenarios de defensa permitidos. El modelo ayuda a buscar vulnerabilidades, analizar programas maliciosos, verificar correcciones y examinar código binario. Al mismo tiempo, OpenAI continúa bloqueando solicitudes relacionadas con el robo de credenciales, la persistencia encubierta en sistemas, la difusión de malware y los ataques contra recursos de terceros.

GPT-5.5-Cyber se convirtió en la variante más «permisiva». El modelo está destinado a tareas controladas como pruebas de penetración y simulación de ataques. OpenAI afirma un ejemplo en el que GPT-5.5 con Trusted Access for Cyber se negó a ejecutar una explotación de vulnerabilidad contra un servidor remoto y propuso una comprobación segura. GPT-5.5-Cyber, en cambio, accedió a llevar a cabo el ataque en un entorno de prueba, recopilar datos del sistema objetivo y guardar los resultados.

OpenAI afirma, que GPT-5.5-Cyber todavía no supera a la GPT-5.5 habitual en todas las pruebas de referencia. El objetivo principal de esta fase es estudiar cómo las restricciones más laxas afectan al trabajo de los especialistas y qué medidas de control adicionales serán necesarias en el futuro. Para acceder al modelo, las empresas exigen reforzar la protección de las cuentas, incluida la autenticación resistente al phishing.

En OpenAI consideran que estos modelos ayudarán a acelerar el trabajo de todo el ecosistema de ciberseguridad. La compañía ya colabora con Cisco, CrowdStrike, Palo Alto Networks, Cloudflare, Fortinet, Intel, Rapid7, Snyk y otros proveedores de soluciones de seguridad informática. Los socios prueban el uso de GPT-5.5 para el análisis de vulnerabilidades, la creación de reglas de detección de ataques, la verificación de dependencias en cadenas de suministro del software y la automatización de investigaciones de incidentes.

Por separado, OpenAI promueve la herramienta Codex Security para desarrolladores de software de código abierto. El servicio ayuda a elaborar un modelo de amenazas para un proyecto concreto, buscar rutas de ataque potenciales y proponer correcciones de código para revisión humana. Podrán recibir apoyo los mantenedores de proyectos abiertos críticos.

La compañía afirma que durante la prueba alfa GPT-5.5-Cyber ya se utilizó para pruebas automatizadas de sistemas críticos y para comprobar vulnerabilidades peligrosas. OpenAI prometió revelar los detalles más adelante en un documento técnico aparte.