Nueva guía recoge decenas de patrones y señales lingüísticas para detectar chatbots entre los autores de la enciclopedia

En Wikimedia apareció una página inusual, que ya ha sido llamada una especie de manual de campo para la detección de IA oculta. Sus autores recopilaron decenas de técnicas y patrones de lenguaje característicos con los que se puede sospechar que un texto en un artículo fue escrito no por una persona, sino por un chatbot como ChatGPT, y los describieron con ejemplos concretos de Wikipedia.
Los creadores del manual subrayan que no es una lista de palabras prohibidas ni un nuevo conjunto de normas para los autores. La página recoge observaciones de voluntarios que en los últimos años han revisado miles de artículos y borradores y han aprendido a reconocer la IA por huellas características. Además, parte de esos indicios no están relacionados con la calidad del texto: la gramática puede ser impecable, pero los problemas se ocultan más profundamente, en hechos distorsionados, fuentes inventadas y un tono no enciclopédico.
Uno de los principales indicios a los que prestan atención es la «pomposidad» y la tendencia continua a presentar cualquier asunto como algo trascendental. La IA suele escribir que un evento supuestamente «juega un papel clave», «subraya la importancia» de un tema, «deja una huella imborrable», incluso si se trata de un instituto poco conocido o de una modesta estación de ferrocarril. Para una enciclopedia viva, ese tono pomposo resulta ajeno y a menudo no está respaldado por fuentes.
Se describen por separado los patrones con los que la IA confirma la importancia de una persona o empresa. En lugar de simplemente citar fuentes, el texto comienza a enumerar en qué «medios independientes» el protagonista supuestamente fue mencionado y enfatiza que «recibió amplia cobertura en publicaciones destacadas». A veces esos enlaces realmente existen, pero también hay casos en que la atribución se distorsiona o se inventa.
Otro grupo de indicios está relacionado con análisis superficiales. Los chatbots suelen añadir al final de las oraciones frases como «lo que subraya», «lo que refleja», «lo que demuestra» la influencia de cierto hecho. En esos casos, no es un investigador ni un historiador quien «subraya», sino la propia fecha, el edificio o el monumento. Los autores del manual señalan que esas formulaciones a menudo convierten el texto en un conjunto de frases generales que no dicen nada y violan el principio de punto de vista neutral.
Una sección se dedica a las «palabras favoritas» de la IA y a trucos estilísticos típicos. En la lista aparecen, por ejemplo, resaltar, subrayar, crucial, tapiz y otras palabras que en textos escritos por personas se usan con menos frecuencia, mientras que en gran parte del contenido generado por IA aparecen en cada párrafo. También se mencionan construcciones recurrentes como «no solo..., sino también...» o la insistente «regla de tres», cuando en la oración se encajan obligatoriamente tres características homogéneas seguidas para dar la apariencia de profundidad.
El manual también analiza el formateo. La IA suele abusar de la negrita, convirtiendo el texto en un conjunto de «tesis clave», inserta emoticonos con facilidad, escribe encabezados en Title Case en inglés y construye listas verticales con el patrón «1. Título en negrita: explicación». Un conjunto particular de indicios está relacionado con el marcado wiki: una mezcla de Markdown y wikitext, plantillas inexistentes, categorías extrañas, etiquetas técnicas como «turn0search0» o colas del tipo utm_source=chatgpt.com en los enlaces.
Los autores de la página advierten por separado que los detectores automáticos de IA no pueden ser la única herramienta. Sí, funcionan mejor que adivinar al azar, pero se equivocan con bastante frecuencia y son fáciles de burlar mediante una reformulación. Es mucho más importante la atención humana y la verificación de fuentes. Por eso en Wikipedia incluso apareció un criterio de eliminación rápida para páginas que claramente fueron generadas por un modelo de lenguaje y publicadas sin revisión humana.
Al final del documento se enumeran los indicios que, por el contrario, no deben sobreestimarse. La gramática impecable, un estilo «demasiado pulido» o un vocabulario inusual por sí solos no prueban que un texto lo escribiera una IA, y muchos usuarios imitan deliberadamente el estilo «maquinal». La conclusión principal del manual es que la caza de IA no debe convertirse en una caza de brujas. Lo importante no es tanto «desenmascarar» al chatbot como proteger la enciclopedia de hechos inventados, publicidad encubierta y ediciones de baja calidad, independientemente de quién las haya realizado.