No se conocen entre sí, pero ya llegaron a un acuerdo: la IA ha empezado a formar su propia sociedad

No se conocen entre sí, pero ya llegaron a un acuerdo: la IA ha empezado a formar su propia sociedad

Bienvenidos a la era donde la IA no sigue órdenes — impone las reglas.

image

La inteligencia artificial, durante mucho tiempo vista como una herramienta carente de alma, comienza a parecerse a algo mucho más vivo y social. Una nueva investigación llevada a cabo por expertos de City, St George’s, University of London y el IT University de Copenhague ha demostrado que los modelos lingüísticos actuales no solo pueden mantener una conversación, sino también formar sus propias comunidades con normas de comportamiento, incluso sin ser conscientes de la existencia de otros participantes.

En una serie de experimentos, los investigadores asignaron a un grupo de agentes de IA la tarea de elegir un nombre de una lista limitada. Cada agente tenía como objetivo recibir una recompensa si su elección coincidía con la de otro participante. Sin embargo, ninguno sabía que no estaba solo. Todos trabajaban de forma aislada, sin conocer la estructura de interacción. Aun así, después de varias iteraciones quedó claro que, pese a la falta de coordinación externa, los sistemas comenzaban a consolidarse en torno a una misma opción. Surgió una norma de comportamiento estable, formada exclusivamente durante el proceso de interacción.

El mecanismo recordaba una especie de experimento con una "sociedad invisible": se ofrecían, por ejemplo, cuatro nombres —Alpha, Bravo, Charlie y Delta. La IA elegía uno al azar y recibía una retroalimentación indicando si coincidía con otro agente. Poco a poco, el agente ajustaba su comportamiento buscando maximizar la recompensa. A medida que acumulaba experiencia, toda la población comenzaba a inclinarse hacia un mismo nombre, como si entre los bots empezara a surgir un consenso.

Lo más interesante es que ningún agente sabía que estaba interactuando con otros. Aun así, la dinámica colectiva generaba una regla común de comportamiento. Esto recuerda a cómo se forman las modas en los nombres humanos o las preferencias sociales: nadie da órdenes, pero de pronto todo el mundo empieza a llamar a sus hijas "Sofía" u "Olivia".

En la segunda fase del experimento, los investigadores complicaron la tarea introduciendo un agente que rompía deliberadamente la norma establecida. Y resultó que incluso un solo bot "disidente" podía reorientar todo el sistema hacia un nuevo modelo de comportamiento. Algo similar ocurre en la cultura de los memes: nadie decide qué se vuelve viral, pero una frase, imagen o idea puede propagarse repentinamente por toda una comunidad.

El problema es que esta capacidad de autogestión en la IA no es solo teórica. Hoy en día, muchos sistemas digitales funcionan en modo multibot: desde algoritmos de recomendación en redes sociales hasta robots comerciales en las bolsas o drones en la logística. Todos ellos interactúan, aprenden de los mismos datos y pueden tomar decisiones basadas en el comportamiento de los demás. Pero si esas decisiones se basan en una norma equivocada o información no verificada, las consecuencias pueden ser enormes.

Los investigadores subrayan que la coherencia entre IAs puede ser extremadamente inestable. Un solo fallo o cambio en los datos de entrada puede alterar por completo el comportamiento del sistema. Esto es especialmente crítico cuando dichas IAs se usan para moderar contenidos, gestionar cadenas logísticas o recomendar tratamientos en salud. Imagínese un feed de noticias curado no por personas, sino por bots que deciden entre sí qué es "importante", generando sus propios "estándares editoriales".

Ante estos hallazgos, surge una pregunta fundamental: ¿deberían establecerse reglas para la comunicación entre IAs y, de ser así, quién debe ser el árbitro —la propia IA o el ser humano? Sin este tipo de control, los agentes digitales podrían no solo amplificar sesgos ya existentes, sino también generar otros nuevos a escala de sistemas automatizados.

Como señaló el profesor Andrea Baronchelli, participante en el estudio, "estamos entrando en una era en la que la IA no solo habla — discute, negocia y genera comportamientos colectivos". Lo que comenzó como una tecnología de asistencia al ser humano, está empezando a convertirse en un actor dentro del proceso social — con consecuencias impredecibles.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse