La IA ya crea cárteles sin intervención humana: las máquinas se toman la revancha por las rebajas y suben los precios; la ley antimonopolio, impotente

La IA ya crea cárteles sin intervención humana: las máquinas se toman la revancha por las rebajas y suben los precios; la ley antimonopolio, impotente

Mil iteraciones de código y la economía ya juega en nuestra contra.

image

Imagine una pequeña ciudad donde trabajan dos comerciantes que venden el mismo producto. Cada uno intenta atraer a los clientes con un precio más bajo y, al final, ambos obtienen una ganancia mínima. Cansados de la competencia constante, se reúnen en secreto en la taberna y discuten un plan: subir los precios al mismo tiempo para dejar de competir y ganar más. Pero esos acuerdos están prohibidos por la legislación antimonopolio, por lo que los empresarios renuncian a la idea y mantienen los precios bajos para los habitantes.

Así funciona el modelo clásico de libre mercado, que en Estados Unidos se aplica desde hace más de un siglo: prohibir los pactos secretos —y la competencia por sí sola mantendrá los precios en un nivel justo. Sin embargo, en la era digital todo se ha complicado. Cada vez más, los vendedores confían la fijación de precios no a personas, sino a algoritmos que ajustan automáticamente los precios según la demanda y las acciones de los competidores. Estos programas analizan datos, prueban distintos enfoques y eligen los que generan mayor beneficio. Formalmente no infringen la ley, pero su comportamiento a veces recuerda al resultado de un cártel.

En 2019, investigadores modelaron un mercado con dos de esos algoritmos y les permitieron buscar por sí mismos estrategias óptimas. Tras cientos de iteraciones, los programas desarrollaron un esquema de "venganza": si uno bajaba el precio, el otro hundía drásticamente el suyo, creando la amenaza de una guerra de precios. Al final, ambas partes alcanzaron un equilibrio estable: los precios se mantenían elevados, pero ninguno de los algoritmos se atrevía a bajar el precio primero. No hubo acuerdos, pero el resultado recordaba a una conducta coordinada.

Desde entonces, economistas y especialistas en aprendizaje automático intentan entender cómo controlar la fijación algorítmica de precios. Buscar un cártel explícito aquí es inútil: los programas no se ponen de acuerdo ni interactúan directamente. Solo reaccionan a estadísticas y eligen pasos óptimos, sin embargo, de esas reacciones puede surgir un sistema estable de precios elevados.

Para explicar este fenómeno, un equipo de la Universidad de Pensilvania dirigido por el informático Aaron Roth aplicó el aparato matemático de la teoría de juegos. Esta rama en la intersección de la informática y la economía estudia cómo los participantes del mercado elaboran estrategias teniendo en cuenta el comportamiento de los rivales. Los investigadores examinaron el funcionamiento de los llamados algoritmos sin arrepentimiento —sistemas que aprenden de sus propios errores y gradualmente llegan a un comportamiento óptimo. En un ejemplo sencillo como "piedra-papel-tijera" un programa deja de repetir jugadas perdedoras y alcanza un equilibrio en el que nadie puede mejorar su resultado cambiando de táctica.

A principios de los años 2000, matemáticos demostraron que si dos de esos programas interactúan, inevitablemente alcanzan un resultado equitativo en el que ninguno tiene ventaja. Con base en eso, investigadores de Northwestern University supusieron que en un mercado real dos algoritmos sin arrepentimiento también mantendrían precios competitivos y, por tanto, un cártel sería imposible. Pero una investigación nueva mostró que la situación es más compleja.

La doctoranda Natali Kollina y su colega Eshvar Arunachalesvaran consideraron un escenario en el que un sistema sin arrepentimiento compite con otro que, a primera vista, es inocuo: no reacciona al comportamiento del oponente. Los economistas llaman a esa estrategia "sin respuesta": el programa fija de antemano probabilidades para distintas decisiones y las elige al azar, sin atender a las acciones del rival. A simple vista, no puede amenazar ni coordinar comportamientos. Sin embargo, esa esquema pasivo provocó, inesperadamente, un aumento de los precios.

El conjunto óptimo de probabilidades para esa estrategia resultó estar sesgado hacia ofertas caras. Como consecuencia, el primer sistema, que aprende de sus errores, comenzó a ajustarse al rival "silencioso" y fue incrementando los precios para no salir perdiendo. El segundo, por su parte, ganaba más, bajando el precio de vez en cuando y adelantando al competidor. Ambas partes quedaron satisfechas: sus ingresos se igualaron y alcanzaron un máximo dado que nadie cambiara su algoritmo. Así se generó un equilibrio estable con precios elevados —una situación que externamente recuerda a un cártel, pero sin la menor interacción.

Para los reguladores, ese escenario es un verdadero rompecabezas. No se puede prohibir los algoritmos sin arrepentimiento: son los que aseguran una competencia honesta. Pero los esquemas completamente pasivos, formalmente, tampoco infringen la ley: no reaccionan al mercado ni intercambian señales. Aun así, combinados pueden perjudicar al comprador: el mercado puede quedar atascado espontáneamente en un estado de precios altos, donde a nadie le conviene cambiar.

Algunos expertos proponen una salida radical: permitir solo aquellos algoritmos cuya propiedad de ausencia de arrepentimiento pueda demostrarse. En 2024, el grupo de Jason Hartline de Northwestern University creó un método que permite verificar esa propiedad sin acceso al código fuente. Pero incluso esa verificación no elimina todos los riesgos, sobre todo si junto a los programas actúan personas cuyo comportamiento está lejos de la racionalidad ideal.

El problema principal es que los rasgos clásicos de un cártel —intercambio de información, acciones coordinadas, amenazas— aquí están ausentes. Los algoritmos no son conscientes de sus decisiones y no pueden ponerse de acuerdo, pero el resultado es el mismo: el mercado se comporta como si hubiera un cártel. Por eso los economistas hablan cada vez más de la necesidad de un nuevo enfoque de regulación, que tenga en cuenta no solo las intenciones de los participantes sino también las consecuencias no intencionadas del aprendizaje automático. Como bromea Aaron Roth, «no está prohibido equivocarse», pero ahora un error de código puede costarle a los compradores más que cualquier reunión en una taberna llena de humo.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse