ONU: "La IA quitará el trabajo a millones" — y la propia organización ya encarga a una IA uno de cada ocho comunicados de prensa.

ONU: "La IA quitará el trabajo a millones" — y la propia organización ya encarga a una IA uno de cada ocho comunicados de prensa.

En dos años, la proporción de textos generados subió del 3% al 13%. ¿Está la automatización devorando a la organización desde dentro?

image

La Organización de las Naciones Unidas se apoya cada vez más en la inteligencia artificial para la redacción de textos oficiales. Según un estudio reciente, el 13% de los comunicados de prensa de la ONU ya muestran señales de generación automática. El análisis de publicaciones corporativas y gubernamentales mostró un panorama aún más amplio: aproximadamente el 17% de esos materiales —desde ofertas de empleo hasta declaraciones oficiales— podrían haber sido redactados con el apoyo de modelos de lenguaje.

La IA también es utilizada activamente por ciudadanos comunes. Según los autores, alrededor del 18% de las reclamaciones presentadas ante la Oficina de Protección Financiera del Consumidor de EE. UU. entre 2022 y 2024 fueron redactadas con ayuda de redes neuronales. Ese resultado parece lógico: más de la mitad de los adultos estadounidenses (52%) ya admitieron haber recurrido a modelos de lenguaje. Con más frecuencia se usan para el autoaprendizaje o tareas domésticas, pero su uso laboral también es cada vez más evidente.

La proporción de texto generado por máquinas es especialmente alta en los comunicados de prensa corporativos. Los investigadores encontraron que casi una cuarta parte de las publicaciones en las tres mayores plataformas de comunicados de prensa se creó con la participación de IA. La mayor concentración de esos materiales se observó en el ámbito de la ciencia y la tecnología.

Los autores examinaron por separado las ofertas de empleo publicadas en LinkedIn. Resultó que las grandes empresas dependen con menos frecuencia de herramientas generativas al redactar anuncios de contratación, mientras que alrededor del 10% de las ofertas de pequeñas empresas, por el contrario, muestran signos de participación automática. Entretanto, los solicitantes expresan cada vez más descontento: la automatización de la selección de personal se percibe como una simplificación injusta, y los candidatos desean que las empresas informen de forma abierta sobre el uso de IA.

El aumento del uso de algoritmos en el trabajo de la ONU también es notable: si a comienzos de 2023 las señales de generación automática se detectaban en solo el 3% de los comunicados de prensa en inglés de la organización, a finales de 2024 la cifra superó el 13%. Esto resulta especialmente llamativo frente a que la propia ONU no pocas veces advirtió: la automatización basada en redes neuronales amenaza a una de cada cuatro profesiones, y las mujeres en los países desarrollados corren mayor riesgo, donde muchas tareas laborales pueden ser asumidas por algoritmos.

En EE. UU., las comunicaciones y las relaciones públicas están entre las profesiones con predominio femenino. Según datos de 2024, las mujeres constituyen el 67,8% de los especialistas en relaciones públicas y el 70,1% de los responsables de PR y recaudación de fondos. Precisamente estos ámbitos ya se están saturando de textos redactados con apoyo de IA.

En general, los investigadores registraron un salto rápido. Antes del lanzamiento de ChatGPT en noviembre de 2022, solo el 1,5% de los materiales analizados podía atribuirse a escritura automática, pero en agosto de 2023 la proporción superó el 15%. El crecimiento posterior se desaceleró, y en agosto de 2024 la cifra se estabilizó en torno al 17%.

Para su estudio, los autores utilizaron su propio detector de texto generado por máquinas. Sin embargo, reconocen que el programa no puede separar con precisión los materiales que, tras la generación, fueron editados de forma considerable por humanos. Esta limitación concuerda con conclusiones previas sobre las debilidades de herramientas similares. Ya en 2023, un estudio independiente mostró que ninguno de los sistemas disponibles alcanzó una precisión superior al 80%, y en varios casos la generación se clasificó como texto humano. Los resultados empeoraron aún más con la edición manual, el parafraseo automático o la traducción.

Otro estudio registró un nivel aún más bajo: la precisión de reconocimiento en condiciones de suplantación pudo caer hasta el 17,4%. El autor principal del trabajo actual, el profesor James Zou de la Universidad de Stanford, explica: estas herramientas funcionan mejor con grandes corpus, pero no pueden determinar con alta fiabilidad si un material concreto fue escrito con ayuda de IA. Según él, como cualquier tecnología nueva, los modelos generativos no se reducen a una valoración inequívocamente positiva o negativa. Cometen errores de forma inevitable, y si se delega por completo en ellos la preparación de textos sin verificar el resultado final, ello conducirá inevitablemente a inexactitudes fácticas.

¿Estás cansado de que Internet sepa todo sobre ti?

¡Únete a nosotros y hazte invisible!