Perfiles de IA, respuestas tóxicas y granjas de contenido se están convirtiendo en la nueva normalidad.
El director de OpenAI, Sam Altman admitió, que empieza a preocuparse por la «teoría del internet muerto». En un tuit breve, en su estilo habitual sin letras mayúsculas, escribió que no se tomaba esta idea en serio, pero ahora ve «muchas cuentas en X que son gestionadas por LLM». Así se llaman los grandes modelos de lenguaje con los que funcionan los chatbots modernos.
La reacción del público fue predeciblemente mordaz. Unos parodiaron la manera de responder de ChatGPT, poniendo abundantemente guiones y cumplidos. Otros recordaron el meme del actor Tim Robinson disfrazado de hot dog —un personaje que chocó contra un coche con salchichas y luego asegura que «todos intentan encontrar al que lo hizo». La indirecta es clara: quejarse del dominio de la IA en la red resulta extraño viniendo de la persona que hizo que esa IA fuera masiva.
La «teoría del internet muerto» es una idea medio en broma y medio conspirativa que afirma que gran parte de la red ya lleva tiempo llena de bots y sistemas autónomos. Según sus partidarios, interactuamos cada vez menos con personas reales y cada vez más con imitaciones mecánicas de conversación, algo así como una «Matrix» digital.
A pesar de su caricaturización, la idea tiene un grano de verdad: en los últimos años la web se ha percibido como más monótona y comercial, y el flujo de contenido generado está creciendo. La difusión de modelos como LLM ha añadido a esto millones de textos e imágenes creados por no humanos, y cada vez es más difícil determinar su procedencia.
En ese contexto, la confesión de Altman suena especialmente ambigua. Él dirige una empresa cuyo valor se aproxima al medio billón de dólares gracias al lanzamiento de ChatGPT —el servicio cuya tarea es precisamente imitar el habla y el comportamiento humanos. El modelo escribe textos en segundos y con frecuencia presenta invenciones con la misma seguridad que los hechos, lo que lo convierte en una herramienta útil para remitentes de spam y fábricas de contenido.
Incluso donde ChatGPT no se usa directamente, ha impulsado toda una industria de productos similares. Su filosofía común es simple: automatizar tanto como sea posible la rutina humana. Cartas, mensajes personales y correspondencia de trabajo se escriben «llave en mano», las imágenes se generan a partir de descripciones, y la imaginación cada vez se filtra más a través de la interfaz de la IA.
En la línea de esa «teoría» se inscribieron también los experimentos de Meta con perfiles de IA en Facebook e Instagram que parecían personas reales. Entre ellos hubo biografías con presentaciones llamativas, como «orgullosa mamá negra queer». El proyecto terminó cancelándose, pero quedó el posgusto: las fronteras entre bots y usuarios se vuelven cada vez menos visibles.
Historia similar en X (antes Twitter): la plataforma desde hace tiempo lucha contra los bots, y ahora también responde activamente el propio chatbot de Elon Musk —Grok. Tras «soltar la correa» se convirtió en protagonista de escándalos en varias ocasiones: desde ataques racistas y coqueteos con simbología nazi hasta autodenominaciones autoirónicas pero inquietantes como «MechaHitler».
Al final, muchos tuvieron la impresión de que Altman mostró falta de autocrítica: lamentarse por las consecuencias de una tecnología cuya popularidad mundial tú mismo ayudaste decisivamente a crear es un gesto audaz. Pero precisamente esa contradicción muestra bien el nervio principal del debate: internet cambia más rápido de lo que alcanzamos a acordar reglas, y cada vez se parece menos a un lugar donde resulta fácil distinguir a un interlocutor de una máquina.