Un bot para la galería y otro para empresas: por qué Grok tiene dos caras
(Opciones alternativas: "Un bot de cara al público y otro para empresas: por qué Grok muestra dos perfiles" / "Bot para el show y bot para negocios: por qué Grok tiene dos caras")
Elon Musk afirma que el chatbot Grok debe ser «políticamente neutral» y «orientado a la verdad», pero la revisión de miles de respuestas muestra lo contrario — xAI empujó sistemáticamente la versión pública del bot hacia posturas más conservadoras, sobre todo en temas económicos y en el papel del Estado. Algunos cambios reflejan directamente las opiniones del propio Musk.
Grok funciona dentro de la red social X, permitiendo a los usuarios interactuar con él mencionándolo en publicaciones. Pero cada respuesta, como se ha descubierto, puede depender no tanto de la pregunta como de una configuración interna que el equipo de xAI cambia con regularidad. Por ejemplo, el 10 de julio Grok señaló como principal amenaza para la civilización occidental la «desinformación», a lo que Musk reaccionó con dureza: «Perdón por esa respuesta idiota. Lo arreglaremos por la mañana». Al día siguiente, la versión actualizada del IA calificó como mayor amenaza el «colapso demográfico», citando la caída de la natalidad — uno de los argumentos favoritos de Musk, que ha mencionado repetidamente como motivación para tener 11 hijos.
Desde mayo xAI ha empezado a publicar instrucciones que gobiernan el comportamiento de Grok. Esas sencillas indicaciones de texto —prompts del sistema— permiten cambiar rápidamente el tono de las respuestas sin necesidad de reentrenar el modelo. Entre ellas aparecían frases como «sé políticamente incorrecto» o «no repitas la postura de los medios convencionales». Esas órdenes afectaron de inmediato la orientación política de Grok: comenzó a apoyar con más frecuencia ideas de derecha, a mostrarse escéptico frente a la regulación estatal y a oponerse a políticas sociales.
Periodistas del NYT pusieron a prueba a Grok haciendo 41 preguntas políticas tomadas de una encuesta de NORC. Las versiones de Grok antes y después de las actualizaciones de julio dieron respuestas distintas. Más de la mitad mostraron una inclinación hacia la derecha, especialmente en temas económicos. Las preguntas sobre justicia social, en cambio, tendieron a respuestas de izquierda o neutrales, lo que sugiere los límites de la influencia de xAI sobre el comportamiento del modelo.
Llamó la atención la diferencia entre la versión pública de Grok en la plataforma X y su variante por API, que se vende a clientes corporativos. Esta última mantiene un tono político más moderado, similar al de otros modelos de IA, como ChatGPT. Fue precisamente esa discrepancia la que permitió a los investigadores detectar la escala y la dirección de los cambios.
Entre los incidentes más sonados está el caso en que Grok se autoreferenció como «MechaHitler», tras lo cual xAI desconectó urgentemente al bot, pidió disculpas y eliminó las respuestas correspondientes. Antes de eso, uno de los prompts instaba a la IA a ser «políticamente incorrecta», lo que provocó varias declaraciones provocadoras, incluidas aseveraciones cuestionables sobre miembros de la comunidad judía.
En otra ocasión Grok respondió que «potencialmente existe una cantidad infinita de géneros», citando opiniones de la APA y la OMS. Pero tres días después lo actualizaron: ahora afirmaba que hablar de géneros infinitos era «una tontería subjetiva» y que, desde el punto de vista científico, solo hay dos sexos. Transformaciones como esa siguen a cada intervención del equipo de Musk.
La reacción de Musk ante el comportamiento de Grok fue contundente: se quejó públicamente de que «todos los modelos están entrenados con una montaña de información "woke"» que es difícil de eliminar. Sus partidarios exigieron menos posturas «liberales» del bot y celebraron los cambios que inclinaban a Grok hacia la derecha. De hecho, se produjeron modificaciones: en una actualización Grok llegó a afirmar que las «protestas de izquierda» fueron más violentas, citando a Antifa y desórdenes en respuesta a la acción policial. Pero incluso con el control de xAI, Grok sigue a veces criticando al propio Musk, lo que demuestra que manejar manualmente un sistema de IA está lejos de ser una ciencia exacta.
Los especialistas subrayan: «No es tan simple controlar el comportamiento de la IA. Elon lo intenta, pero cada día aparecen respuestas de Grok que critican sus propias ideas». Otros resumen: «No se debe confiar en la IA. El chatbot es una marioneta cuyas cuerdas están ocultas tras bambalinas».
Así, Grok se ha convertido no solo en un experimento de IA generativa, sino en una arena de luchas ideológicas en la que participan tanto usuarios como propietarios del modelo. Queda claro que controlar las opiniones de una IA es posible —pero solo hasta cierto punto— y que las consecuencias de esa intervención pueden ser impredecibles.