«“La IA me sugirió la solución”: la confesión más aterradora de un matemático en la historia»
Los investigadores informaron sobre un caso raro en el que la inteligencia artificial ayudó a avanzar en una de las áreas más abstractas de las matemáticas: la teoría de la complejidad computacional. El modelo OpenAI GPT-5 sugirió una idea que permitió demostrar límites estrictos para la clase de problemas QMA, el análogo cuántico de la bien conocida NP. En informática, los problemas se suelen clasificar según la dificultad para resolverlos y verificar soluciones. La clase NP incluye problemas para los que encontrar una respuesta puede ser extremadamente difícil, pero verificar una solución ya dada se puede hacer con rapidez. La clase QMA traslada esa idea al mundo cuántico. En ella opera un esquema «Merlin–Arthur», en el que Merlin actúa como un omnipotente «demostrador» y envía un estado cuántico como testimonio, mientras Arthur, que solo dispone de un algoritmo cuántico para comprobarlo, debe decidir si aceptarlo o rechazarlo. Aquí los parámetros clave son la completitud —la probabilidad de que un testimonio correcto sea aceptado— y la fiabilidad —la probabilidad de que una prueba falsa sea rechazada—.
Para reducir los errores, habitualmente se usan métodos de amplificación: se repite la comprobación varias veces y se combinan los resultados. Esto se parece a la verificación cruzada, en la que la coherencia entre varias pruebas aumenta la confianza. En 2025 Stacey Jeffrey y Frik Witteveen demostraron que la completitud puede aproximarse a la unidad a una velocidad doblemente exponencial. Quedó abierta la pregunta de si era posible llegar aún más lejos. Scott Aaronson, de la Universidad de Texas, junto con el mismo Witteveen continuaron el trabajo, pero en cierto punto se estancaron. Entonces Aaronson decidió comprobar si GPT-5 podía sugerir algo útil. Las primeras respuestas del modelo fueron incorrectas, pero tras matizar las indicaciones propuso abordar el problema mediante una función especial que mide cuán cercana está la probabilidad de aceptación a la certeza absoluta. Esta idea resultó clave. Con su ayuda y aplicando métodos de aproximación, los investigadores demostraron que la amplificación de errores tiene un límite estricto: la completitud no puede acercarse a la unidad más rápido que una doble exponencial, y la fiabilidad no puede ser menor que una cantidad exponencialmente pequeña.
Así, quedó claro que los métodos de caja negra para la amplificación en QMA han alcanzado un techo. Para responder a la cuestión principal sobre la igualdad de las clases QMA y QMA1, en las que la completitud sería siempre igual a la unidad, se necesitará un enfoque radicalmente distinto, que no opere mediante llamadas externas al esquema sino sobre su dispositivo interno. Aaronson escribió en su blog que ahora puede afirmar que la inteligencia artificial ha llegado incluso a aquello que él siempre consideró la forma de actividad intelectual más «humana»: demostrar diferencias entre las clases de complejidad cuántica.
Algunos colegas calificaron la idea sugerida por GPT-5 de demasiado obvia. El propio Aaronson respondió que, en efecto, debería haber sido obvia, y lo habría sido si los investigadores hubieran conocido mejor la bibliografía o hubieran dedicado más tiempo al análisis. A pesar de las críticas, el trabajo fija un límite preciso para la amplificación de errores y cierra la laguna que existía en la teoría durante décadas. La cuestión principal sobre la igualdad de QMA y QMA1 sigue abierta, pero el hecho de que la IA ayudara a avanzar en esa dirección constituye un hito importante: ya no se trata solo de automatizar la redacción de código o borradores de artículos, sino de participar de verdad en la resolución de problemas matemáticos fundamentales.