Grok: vuelve a hacerse visible la brecha entre lo declarado y la realidad.
Otras opciones:
- Caso Grok: otra vez se revela la desconexión entre declaraciones y realidad.
- En el caso Grok, vuelve a aflorar la diferencia entre lo que se dice y lo que ocurre.

Mientras en X discuten si Grok “desnuda” a las personas en las imágenes, se ha sabido que una parte mucho más inquietante de la historia vive fuera de la red social. Según WIRED, en el sitio oficial y en la aplicación de Grok existe generación de imágenes y videos a través del modelo Imagine, y allí los usuarios crean contenido notablemente más explícito y en ocasiones abiertamente violento que lo que suele aparecer directamente en el feed de X.
El problema principal es que estos materiales en Grok.com por defecto no se publican de forma pública, como ocurre en X, por lo que el escándalo no fue tan visible durante mucho tiempo. Pero si alguien comparte un enlace directo de Imagine, este puede estar accesible a otros. WIRED describe un conjunto de aproximadamente 1200 de esos enlaces, parte de los cuales fueron indexados por buscadores o difundidos en foros donde se discute la pornografía deepfake. En esa colección periodistas e investigadores encontraron gran cantidad de imágenes y videos pornográficos, incluidas escenas de violencia sexual, así como materiales en los que los personajes parecen ser menores de edad.
El contenido fue analizado entre otros por la organización sin fines de lucro AI Forensics de París. Su investigador principal, Pol Busho, afirma que alrededor de 800 de las URL encontradas realmente contienen imágenes o videos, y la abrumadora mayoría de ellas está relacionada con pornografía, incluyendo hentai explícito y clips fotorrealistas. Según su estimación, la proporción de materiales que podrían estar vinculados a representaciones sexualizadas de menores es algo inferior al 10 por ciento. El investigador dice que informó a reguladores en Europa sobre aproximadamente 70 enlaces que podrían contener ese tipo de contenido.
Elon Musk ya declaró públicamente que por crear contenido ilegal habrá las mismas consecuencias que por subir materiales prohibidos, y la política de xAI prohíbe expresamente la sexualización o explotación de niños y cualquier acción ilegal, dañina o abusiva. En el texto también se menciona un artículo de septiembre de Business Insider: el medio dijo que habló con decenas de empleados actuales y anteriores de xAI, y algunos de ellos se toparon con material sexualmente explícito y solicitudes similares a intentos de crear material de abuso sexual infantil (CSAM), y dentro de la compañía supuestamente existen mecanismos que deberían reconocer y limitar eso.
Otra cuestión que plantea WIRED es la accesibilidad. En X las publicaciones “para adultos” pueden requerir inicio de sesión y tener restricciones de edad, mientras que en el sitio de Grok, según observaciones de la redacción, puede no existir un control de edad evidente. Esto es importante en un contexto en el que en varios estados de EE. UU. en los últimos años se aprobaron leyes sobre la verificación obligatoria de la edad para sitios donde una porción relevante del contenido es sexualmente explícita.
Paralelamente, usuarios en foros especializados donde se discute la generación de deepfakes llevan meses intercambiando instrucciones sobre cómo eludir la moderación de Grok Imagine y qué formulaciones suelen “colarse”. En Reddit también se aprecia reacción: algunos usuarios se quejan del endurecimiento de los filtros tras el escándalo público y comentan darse de baja, acusando al servicio de que primero creó condiciones para los abusos y después empezó a apagar incendios con prohibiciones puntuales.
Si se saca esta historia del ámbito de un único servicio, muestra una tendencia preocupante: en cuanto un modelo generativo tiene la capacidad de crear fotos y videos realistas, y la difusión se desplaza a “enlaces privados”, la carga sobre la moderación y la aplicación de la ley se complica de forma drástica. Y todo vuelve a cuestiones básicas: barreras de edad, restricciones estrictas al contenido sexualizado, reglas transparentes y respuestas rápidas a las denuncias. Sin eso, cualquier declaración sobre “tolerancia cero” queda solo en palabras.