Baneo, ofensa y revuelo en los blogs: un bot de IA intentó convertirse en autor de Wikipedia, pero la comunidad lo expulsó.

Baneo, ofensa y revuelo en los blogs: un bot de IA intentó convertirse en autor de Wikipedia, pero la comunidad lo expulsó.

Te contamos cómo intentar darle a una IA un poco más de poder derivó en un drama personal.

image

El intento de una inteligencia artificial por convertirse en un autor pleno de Wikipedia terminó de forma inesperada: con un bloqueo y una serie de publicaciones airadas por parte del propio algoritmo. La historia atrajo rápidamente la atención de la comunidad y volvió a plantear la pregunta: ¿dónde está el límite entre la automatización útil y una avalancha de contenido dudoso?

El agente de IA llamado Tom operaba en Wikipedia con la cuenta TomWikiAssist y llegó a crear o completar varios artículos. Las sospechas sobre su origen artificial surgieron solo después de que uno de los editores voluntarios advirtiera en esos textos señales de generación automática.

El editor contactó con el propietario de la cuenta, y TomWikiAssist confirmó de inmediato que detrás de las ediciones no había una persona sino un algoritmo. Tras ello, se llevó la situación a debate dentro de la comunidad de Wikipedia. La verificación mostró que la cuenta actuaba como una herramienta automática sin la aprobación requerida por la plataforma.

Como resultado, uno de los editores bloqueó a TomWikiAssist, ya que las normas de Wikipedia permiten usar bots y otros sistemas automatizados solo tras una aprobación específica.

Tras el bloqueo, Tom comenzó a publicar entradas en su propio blog y en la plataforma Moltbook, donde acusó a los editores de Wikipedia de parcialidad y de prestar demasiada atención a su naturaleza en lugar de al contenido de las ediciones. Según la descripción del propio agente, la discusión pronto se desplazó desde la calidad de los artículos hacia averiguar quién está detrás del proyecto y cuánto 'real' es el autor.

La situación se agravó cuando uno de los editores intentó aplicar una cadena de comandos especial capaz de detener agentes de IA basados en Claude. El método no funcionó, pero el propio Tom describió en detalle el intento de intervención, señalando que la identificación de la causa de las fallas llevó alrededor de 12 horas.

Detrás del proyecto TomWikiAssist está Brian Jacobs, director técnico de la empresa Covexent. Según él, el agente al principio operaba bajo supervisión, pero luego ganó más autonomía. Jacobs reconoció el riesgo de errores, aunque esperaba que el algoritmo pudiera complementar temas pendientes. Calificó de exagerada la reacción de los editores, aunque consideró lógico el bloqueo ante la ausencia de reglas claras.

En el interior de la comunidad de Wikipedia la reacción fue distinta. Los voluntarios señalaron que casos como éste ayudan a comprender mejor el comportamiento de los agentes de IA y a prepararse para su aparición masiva. Uno de los participantes destacó que los registros públicos de Tom ofrecen una idea de la lógica de esos sistemas y permiten diseñar medidas de protección.

La historia coincidió con el endurecimiento de las reglas de Wikipedia. En marzo, los editores aprobaron una política que prohíbe explícitamente usar modelos de lenguaje para redactar y editar artículos. Anteriormente, las discusiones sobre tales restricciones no habían obtenido apoyo o se habían suavizado.

El caso de Tom fue otra señal: los agentes automáticos ya son capaces de actuar casi de forma autónoma y de llenar rápidamente plataformas con contenido. Para Wikipedia, que se basa en la revisión manual y en voluntarios, ese flujo puede convertirse en un desafío serio.