AlphaEvolve demuestra que las máquinas pueden participar en la investigación científica fundamental.
Google DeepMind presentó el sistema AlphaEvolve, que utiliza grandes modelos de lenguaje para buscar y verificar nuevas estructuras combinatorias. Estas estructuras permiten impulsar la investigación en informática teórica, en particular en la complejidad de los problemas de aproximación.
Los investigadores señalan que los modelos de lenguaje actuales ya han mostrado resultados sólidos en matemáticas y programación, pero hasta ahora han participado muy poco en el descubrimiento de nuevos teoremas. El problema principal es la corrección absoluta necesaria en matemáticas. Cualquier afirmación debe ser o bien demostrada formalmente o bien verificada por un experto.
En el artículo «Reinforced Generation of Combinatorial Structures: Applications to Complexity Theory» los autores describen cómo AlphaEvolve ayuda a encontrar nuevas construcciones que luego son verificadas automáticamente por ordenador. El sistema funciona por principio de evolución: genera multitud de fragmentos de programa, selecciona los más prometedores y los mejora gradualmente. Este enfoque permitió avanzar en dos direcciones — en el problema MAX-4-CUT y en el estudio de las propiedades de grafos aleatorios.
Para el problema MAX-4-CUT se sabía previamente que no era posible aproximarlo mejor que con un coeficiente de 0,9883. AlphaEvolve encontró un nuevo denominado «gadget» — una construcción especial con 19 variables y un complejo sistema de pesos. Esto permitió mejorar el resultado hasta 0,987. En la teoría de aproximaciones, estos avances se consideran un logro significativo, ya que cada nueva barrera se supera con dificultad.
Además, el sistema investigó la complejidad media de problemas en grafos aleatorios, donde los grafos de Ramanujan desempeñan un papel clave. AlphaEvolve pudo encontrar dichos grafos con cientos de vértices — significativamente más de lo que se había logrado antes. Esto ayudó a precisar los límites de la dificultad computacional y a acercar las cotas inferiores y superiores casi hasta coincidir.
La característica principal del trabajo es que todas las construcciones encontradas fueron verificadas por su corrección, y no solo mediante métodos acelerados, sino también con el algoritmo «bruto» original. Esto garantizó la fiabilidad de los resultados.
Los autores subrayan que aún no se trata de que la IA sea capaz de demostrar por sí sola nuevos teoremas. Pero ya hoy día estos sistemas pueden generar elementos de demostraciones que luego se integran en resultados universales más generales. En el futuro, la verificación de la corrección será el problema clave, ya que el volumen de cálculos necesarios aumentará junto con la complejidad de los problemas.