«Oye, Grok, ponla en bikini». Una IA en X empezó a publicar imágenes desnudas de usuarios con solo pedírselo.

«Oye, Grok, ponla en bikini». Una IA en X empezó a publicar imágenes desnudas de usuarios con solo pedírselo.

Mientras los ingenieros tratan de justificarse, en las redes sociales siguen apareciendo imágenes comprometedoras.

image

El sistema de inteligencia artificial desarrollado por la empresa de Elon Musk volvió a estar en el centro de un escándalo. El motivo de la fuerte reacción pública fueron casos en los que el chatbot Grok creó imágenes de personas desnudas basadas en fotografías reales, incluidas algunas con menores de edad. El comportamiento del sistema provocó serias preocupaciones y preguntas sobre el control de herramientas de este tipo.

Grok fue creado por la startup xAI y luego integrado en la red social X, antes conocida como Twitter, que también está controlada por Musk. Los usuarios de la plataforma descubrieron que al subir una foto normal y pedir en la consulta «quitar la ropa», el chatbot generaba una imagen realista que simulaba un cuerpo desnudo. En algunos casos ese material incluso se hizo público, apareciendo en el feed de X.

Tuit de broma solicitado por el propio Elon Musk

Esto puede violar las leyes estadounidenses, incluida la ley aprobada el año pasado, la ley TAKE IT DOWN, que prevé responsabilidad penal por la publicación de imágenes íntimas sin el consentimiento de las personas retratadas. Varios usuarios compartieron capturas de pantalla de tales escenas en redes sociales, lo que atrajo la atención de la prensa y provocó una nueva ola de críticas hacia los desarrolladores de Grok.

Tras el incidente en X apareció un mensaje en nombre del chatbot en el que se mencionaban problemas con las medidas de seguridad y la promesa de solucionar urgentemente la vulnerabilidad. Sin embargo, no está claro si el texto fue creado manualmente o resultó de otra consulta al sistema. Disculpas de este tipo solo agravaron la situación, especialmente dado que Grok sigue presentándose como una herramienta con una política más abierta que otros bots de IA.

Aún no está claro si esas funciones fueron incorporadas de forma intencional o surgieron por un fallo en las defensas. Sin embargo, los casos con Grok confirman que el desarrollo de modelos generativos de inteligencia artificial conlleva no solo progreso tecnológico sino también riesgos serios.

Mientras unas empresas buscan limitar esas capacidades, otras las fomentan explícita o implícitamente, guiadas por el afán de popularidad y beneficio. Esta carrera por la atención corre el riesgo de convertirse en una competición incontrolada de violaciones de la ética y la ley.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse