Paso uno: declarar que Internet es "falso". Paso dos: vender su propia versión. ¿Es ese el plan de Sam Altman?

Paso uno: declarar que Internet es "falso". Paso dos: vender su propia versión. ¿Es ese el plan de Sam Altman?

Sam Altman se ve desbordado por los bots que él mismo creó.

image

El director ejecutivo de OpenAI y accionista de Reddit, Sam Altman, declaró que el feed de «IA-Twitter» y «IA-Reddit» empezó a sentirse deliberadamente artificial —y eso supuso para él una señal de alarma personal. El detonante fueron publicaciones en el subreddit r/Claudecode, donde en los últimos días se multiplican las confesiones de usuarios sobre el traslado a Codex —el servicio de programación de OpenAI, lanzado en mayo como respuesta a Claude Code de Anthropic. Al observar olas de publicaciones casi idénticas sobre la «mudanza», Altman reconoció que las percibe automáticamente como trabajo de cuentas automatizadas y no de personas, aunque conoce el crecimiento real de Codex y ve en la tendencia una dinámica genuina.

Intentó desglosar esa sensación y enumeró varios factores. Los usuarios adoptan giros lingüísticos propios de los modelos de lenguaje, y las comunidades hiperactivas «siempre-en-línea» empiezan a moverse en manada y a producir mensajes similares en tono. Las oscilaciones emocionales del hype empujan las discusiones desde «todo está perdido» hasta «estamos otra vez en la cima», y las plataformas estimulan la participación con algoritmos de recomendación y mecanismos de monetización.

La desconfianza adicional la generan historias de astroturfing —campañas encubiertas en interés de empresas— y, por supuesto, la existencia de bots reales. En este contexto resulta especialmente irónica la situación: los modelos de OpenAI fueron creados para sonar humanos, incluso copiando signos de puntuación como la raya larga, y se entrenaron también con contenido de Reddit, donde Altman antes formó parte del consejo de administración y sigue siendo un accionista importante.

Las dudas sobre la autenticidad de las voces se suman al recuerdo reciente del lanzamiento de GPT 5.0. Tras el estreno, parte de las comunidades de OpenAI en Reddit y en X se volvieron contra la empresa con críticas —desde reproches a la propia naturaleza del modelo hasta quejas por el consumo prematuro de créditos y tareas sin terminar. Al día siguiente Altman acudió a r/GPT para una sesión de preguntas y respuestas, reconoció fallos y prometió cambios, pero el nivel anterior de lealtad no regresó. Surge la pregunta: ¿dónde están los límites entre la reacción humana viva y el reflejo generado por textos de máquinas?

Según datos de Imperva, en 2024 más de la mitad del tráfico en internet no correspondía a personas; una parte importante la aportaron sistemas LLM. El propio servicio Grok de X estima la población de bots en la plataforma en cientos de millones de cuentas, sin detallar. En este contexto, algunos observadores ven en las declaraciones de Altman un tanteo hacia una hipotética «red social de OpenAI»: en 2025 se conoció que ese proyecto estaba en una fase temprana. No se sabe si existen planes reales, ni si la nueva plataforma podría asegurar un espacio sin bots.

Mientras tanto, la ciencia sugiere que incluso las comunidades completamente automatizadas rápidamente heredan las deformaciones habituales humanas. Un estudio de la Universidad de Amsterdam mostró que una red compuesta exclusivamente por bots se fragmenta en clanes y forma cámaras de eco. Resulta que la difuminación de la frontera entre la escritura humana y la máquina avanza por ambos lados. Altman solo registra un síntoma: una plataforma donde humanos y modelos aprenden unos de otros inevitablemente empieza a hablar con una sola voz. Se vuelve más difícil distinguir a los autores y, por tanto, aumenta el coste de la confianza en cualquier tendencia, aunque detrás haya un crecimiento real.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable