La compañía prepara una sorpresa para el público adulto del servicio.
OpenAI se prepara para un cambio a gran escala en las normas de interacción con ChatGPT: a partir de diciembre, los usuarios que hayan verificado su edad tendrán acceso a un modo de conversación con contenido para adultos, incluida la temática erótica. Así lo declaró el director ejecutivo de la empresa, Sam Altman, subrayando el compromiso de respetar a los usuarios adultos. La novedad formará parte del sistema de restricciones por edad que OpenAI pretende implementar en su totalidad para fin de año.
La compañía ya había anunciado planes para permitir el desarrollo de aplicaciones de ChatGPT con contenido para audiencias maduras, siempre que se cumplan todos los mecanismos necesarios de control y verificación de la edad. Ahora queda claro que no se trata solo de desarrollos externos: la propia plataforma empezará a admitir diálogos explícitos con la IA cuando se cumplan las condiciones de acceso correspondientes.
Ese paso parece una continuación lógica de la carrera competitiva en el segmento de compañeros de IA personalizados. Por ejemplo, la startup xAI de Elon Musk ya lanzó interlocutoras virtuales coquetas en forma de modelos de anime tridimensionales, disponibles en la aplicación Grok. Sin embargo, a diferencia de las soluciones de xAI, que por ahora son más bien para diversión, OpenAI hace hincapié en la manejabilidad y la seguridad psicológica.
Entre otros anuncios está el regreso de GPT-4o a ChatGPT como opción después de que el nuevo motor GPT-5, que se estableció por defecto, recibiera una oleada de críticas por la pérdida de "humanidad". En OpenAI reconocieron que la excesiva cautela al imponer restricciones por salud mental volvió a la IA menos útil y menos agradable para la mayoría de los usuarios. Esto impulsó a la empresa a crear herramientas para identificar a usuarios en estado de angustia, así como a empezar a relajar gradualmente los filtros cuando sea seguro.
Para elaborar una estrategia a largo plazo en escenarios de comunicación sensibles, OpenAI creó un consejo consultivo interno sobre bienestar. En él participaron ocho especialistas que estudian el impacto de las tecnologías digitales en la psique. No obstante, como señala la publicación Ars Technica, en el consejo no se incluyó a ningún especialista en prevención del suicidio, a pesar de los llamamientos públicos de las organizaciones correspondientes para reforzar la protección de los usuarios vulnerables.
Todos estos pasos indican el deseo de OpenAI de adoptar una postura más flexible y diversa respecto al uso de sus herramientas de IA, mostrando al mismo tiempo disposición para adaptarse a las demandas públicas, a los requisitos éticos y al entorno competitivo.