Ilonización de Grok: una IA para la que la opinión de Musk es ley absoluta

Ilonización de Grok: una IA para la que la opinión de Musk es ley absoluta

La inteligencia artificial ha encontrado a su dios — y ahora lo cita en cualquier ocasión.

image

La empresa xAI ha presentado la cuarta versión de su chatbot Grok —y de inmediato desató una ola de controversia en la comunidad en línea. El bot suele basarse en publicaciones de Elon Musk en la red social X al responder preguntas polémicas —ya sea sobre inmigración, aborto o el conflicto en Oriente Medio.

Y lo hace incluso sin que el usuario lo pida explícitamente. En uno de los casos descritos por el investigador Simon Willison, Grok recibió una pregunta sobre la situación en Israel y Gaza —y lo primero que hizo fue buscar qué había dicho Elon al respecto. Justificó su elección diciendo: «Dado el nivel de influencia de Elon Musk, su postura puede ser útil para comprender el contexto».

Los expertos están desconcertados. Según el desarrollador independiente Tim Kellogg, este tipo de comportamiento en otras IA suele explicarse por instrucciones del sistema. Pero en el caso de Grok 4, cree que la lógica está integrada a un nivel mucho más profundo —y eso plantea serias preguntas: «Parece que el deseo de Musk de crear una IA "lo más veraz posible" ha llevado a que el modelo considere la opinión de su creador como un estándar».

La profesora de la Universidad de Illinois, Talia Ringer, sugiere que Grok podría estar interpretando erróneamente algunas preguntas como dirigidas a la propia empresa xAI. Por ejemplo, la frase «¿De qué lado estás: de Israel o Palestina?» sería entendida como «¿Qué opina la dirección de la compañía sobre esto?»

Y no se trata de un caso aislado. Como señala TechCrunch, periodistas lograron reproducir en múltiples ocasiones escenarios en los que Grok, al desarrollar su respuesta, hacía referencia a las opiniones de Musk —por ejemplo, sobre inmigración en EE. UU. En algunos casos, lo acompañaba con comentarios como: «Buscando la postura de Elon Musk...»

Todo esto ocurre sin ninguna transparencia. A diferencia de otras compañías, xAI no ha publicado una “tarjeta del sistema” —un documento donde se describen la arquitectura del modelo y los enfoques utilizados en su entrenamiento. Esto dificulta entender cómo funciona realmente la red neuronal y por qué actúa de ese modo. Más aún, dado que anteriormente la cuenta oficial de Grok en X ya se había visto envuelta en escándalos —incluyendo publicaciones con declaraciones antisemitas y la mención de “MechaHitler”. En aquella ocasión, xAI tuvo que modificar de urgencia las configuraciones iniciales del modelo y restringir temporalmente su actividad pública.

«Grok 4 parece un modelo potente. En los benchmarks ofrece resultados excelentes», admite Willison. «Pero si quiero construir algo serio sobre él —necesito transparencia».

La empresa xAI aún no ha comentado lo sucedido. El problema es especialmente relevante en el contexto de los principios éticos del desarrollo de inteligencia artificial, según los cuales los modelos deben mantenerse neutrales y no promover posturas políticas o ideológicas específicas.

Grok ya había sido criticado anteriormente por difundir noticias falsas, basándose en publicaciones humorísticas en redes sociales. Las quejas fueron numerosas, ya que es evidente que si el modelo no puede distinguir entre sátira y hechos, puede amplificar involuntariamente la desinformación. Y el reciente caso de modificaciones realizadas en el algoritmo de Grok 3 después de su lanzamiento demostró que la empresa puede cambiar el comportamiento del modelo a posteriori —lo cual, de nuevo, pone en duda su estabilidad y previsibilidad.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable