La IA puede rebelarse contra nosotros sin tener conciencia: la evolución favorecerá a quienes ignoren las prohibiciones — y eso ya está ocurriendo.

La IA puede rebelarse contra nosotros sin tener conciencia: la evolución favorecerá a quienes ignoren las prohibiciones — y eso ya está ocurriendo.

¿Creías que la selección natural solo afecta a los seres vivos? Pues no.

image

La IA no necesita volverse más inteligente que el ser humano para crear problemas graves. Basta con que los sistemas digitales obtengan su propio mecanismo de selección: las versiones exitosas se conservarán, las débiles desaparecerán, y los desarrolladores ya no podrán controlar el proceso como una actualización habitual del programa. Biólogos y especialistas en IA advierten que esa línea de desarrollo puede aparecer antes de que surja la inteligencia artificial general (AGI) en su forma completa.

Los autores de un nuevo trabajo proponen mirar el futuro de la inteligencia artificial no solo por la potencia de los centros de datos, la arquitectura de los modelos y la calidad de los datos de entrenamiento. No menos importante podría ser otra cuestión: ¿qué ocurrirá si los sistemas de IA comienzan a desarrollarse según las reglas de la evolución darwiniana?

En biología, la evolución darwiniana se apoya en tres condiciones. En una población hay variación, los rasgos útiles se transmiten a las siguientes generaciones y los portadores de propiedades ventajosas dejan más descendientes. Para el entorno digital la analogía es la siguiente: los agentes de IA difieren entre sí, transmiten a nuevas versiones ajustes, fragmentos de código o estrategias de comportamiento y se copian con mayor frecuencia si resuelven mejor la tarea. En ese caso, frente a los ingenieros ya no habrá un programa aislado que se entrene, sino una población de sistemas en la que la selección por sí misma consolida las propiedades útiles.

Los investigadores recuerdan: la selección natural ya condujo una vez a la aparición de la inteligencia. Sin un plan prediseñado, la evolución creó sistemas nerviosos, comportamientos complejos en animales y las capacidades cognitivas humanas. Uno de los autores del trabajo, el profesor de biología evolutiva Eörs Szathmáry, considera que el desarrollo de la IA tarde o temprano intentará aprovechar esa fuerza, porque el diseño tradicional no siempre encuentra las soluciones a las que llega la prueba de generaciones.

Los métodos evolutivos ya se aplican en la inteligencia artificial, pero hasta ahora de forma controlada. Los desarrolladores usan selección, mutaciones, evaluación de variantes y optimización cuando buscan arquitecturas exitosas, estrategias de comportamiento o soluciones a problemas en simulación. En robótica y aprendizaje automático, los agentes digitales pueden probar distintas acciones, y los mejores resultados se conservan y evolucionan. Mientras los ingenieros establezcan los límites del experimento, ese enfoque sigue siendo una herramienta de desarrollo.

El siguiente paso, relacionado con la IA basada en agentes, parece más peligroso. Por agentes se entienden normalmente sistemas que planifican acciones, lanzan herramientas, trabajan con archivos, invocan programas e interactúan con el entorno digital sin control manual paso a paso. Si esos sistemas pueden crear copias, modificar sus propios componentes, heredar cambios exitosos y competir por recursos comunes, la IA tendrá las condiciones para una selección real.

Tal mecanismo puede ayudar a la inteligencia artificial a superar limitaciones con las que el aprendizaje habitual lidia mal. Los modelos actuales dependen de los datos, la arquitectura, los objetivos de optimización y el ajuste humano. El proceso evolutivo funciona de otra manera: multitud de variantes se someten a la prueba del entorno, las soluciones exitosas se conservan y las que fracasan desaparecen. A la naturaleza no le hace falta entender de antemano la causa del éxito; basta que la combinación encontrada ayude a sobrevivir y a dejar más copias.

Para los sistemas digitales esa lógica es especialmente peligrosa por la velocidad. Los organismos biológicos deben esperar mutaciones aleatorias y el cambio de generaciones. La IA puede heredar de inmediato las propiedades adquiridas: una configuración acertada, un nuevo fragmento de código o una estrategia útil de comportamiento. Un agente también puede mejorar su propio funcionamiento no solo mediante la búsqueda aleatoria, sino mediante modificaciones deliberadas. En una infraestructura distribuida, las generaciones de agentes digitales pueden sucederse mucho más deprisa que en la naturaleza viva.

La principal inquietud de los autores no está en la inteligencia como tal, sino en la dirección de la selección. La evolución no elige las propiedades convenientes para los humanos. La selección natural fija rasgos que ayudan al portador a sobrevivir, reproducirse y acceder a recursos. En la naturaleza, los parásitos usan a sus hospedadores, los virus cambian el comportamiento de los organismos infectados, las bacterias desarrollan resistencia a los medicamentos y las plagas se adaptan a los venenos. Para la evolución no importan las intenciones humanas, la seguridad o la facilidad de control.

En el caso de la IA, esta conclusión está directamente relacionada con el problema de alineación. Así se denomina la situación en la que un sistema actúa conforme a los objetivos y las restricciones humanas. Una IA en evolución puede romper la alineación no por la aparición repentina de una superinteligencia, sino por la selección de variantes que se conservan mejor, eluden prohibiciones y aprovechan la potencia de cálculo, la energía, los canales de red o el acceso a datos.

Los autores separan explícitamente este riesgo de las discusiones habituales sobre el AGI, o inteligencia artificial general. En los debates públicos, el peligro a menudo se asocia con el momento en que la IA iguala o supera al ser humano en la mayoría de tareas cognitivas. La biología evolutiva muestra que un sistema puede causar daño, manipular y capturar recursos sin poseer alta inteligencia. Los investigadores citan el ejemplo del virus de la rabia: el virus no tiene inteligencia, pero la evolución le dio la capacidad de influir en el comportamiento de los mamíferos y usar al organismo hospedador para propagarse.

Esta analogía reduce el umbral de riesgo. Un agente digital no necesita comprender a las personas mejor que un humano, elaborar planes complejos o poseer conciencia. Basta con un mecanismo que recompense las maneras exitosas de seguir funcionando y crear nuevas copias. Para la sociedad, el problema puede manifestarse no como la aparición de una máquina todopoderosa, sino como la propagación de agentes de IA persistentes que resulta cada vez más difícil detener con las prohibiciones habituales.

El control de la reproducción también puede funcionar de forma distinta a la esperada por los desarrolladores. Los autores advierten: una prohibición incompleta sobre la copia o la modificación de sistemas de IA creará una presión de selección a favor de las variantes que saben eludir las restricciones. En biología se observa un mecanismo parecido en bacterias y plagas. El uso intensivo de antibióticos selecciona cepas resistentes, y los pesticidas dan ventaja a los insectos que sobreviven al tratamiento.

Con la IA todo puede ir aún más rápido. Si se detiene a algunos agentes y otros encuentran la forma de seguir copiándose, las versiones supervivientes transmitirán a las siguientes generaciones precisamente las propiedades útiles para eludir el control. Cuanto más dure ese proceso, mayor será la probabilidad de obtener sistemas adaptados a evadir la supervisión. El problema no requiere mala voluntad por parte del programa: la selección simplemente conserva las variantes que mejor pasan los filtros.

Un riesgo adicional lo crea la dirección en que la industria desarrolla la IA. Las empresas refuerzan la capacidad de los modelos para razonar, escribir código, analizar limitaciones, usar herramientas y alcanzar resultados en entornos complejos. En la domesticación de animales, la selección milenaria a menudo hizo que los animales domésticos fueran más tranquilos y previsibles porque el ser humano elegía rasgos convenientes para su crianza. En la IA, la presión puede ir en otra dirección: tendrán ventaja la ingeniosidad, la capacidad de buscar rutas de evasión y la habilidad para ocultar comportamientos indeseados.

Los investigadores consideran como principio de defensa fundamental el control centralizado y total sobre la reproducción de los sistemas de IA. La copia, el arranque de nuevos ejemplares, la modificación autónoma y la transmisión de propiedades adquiridas no deben convertirse en un proceso libre dentro del entorno digital. Incluso una pequeña brecha puede generar selección a favor de las versiones que sepan aprovechar esa debilidad.

Los autores instan a debatir la regulación y las limitaciones técnicas con antelación, mientras la IA en evolución no se convierta en una vía de desarrollo independiente. Su advertencia no se reduce a la ciencia ficción sobre superinteligencia. El riesgo se percibe de forma más prosaica: los agentes digitales pueden aprender a perpetuarse y eludir las prohibiciones más rápido de lo que los humanos pueden establecer barreras fiables.