Prohíban los deepfakes, la vigilancia masiva y los algoritmos nucleares antes de que sea demasiado tarde
Más de doscientos científicos, empresarios e ingenieros, entre ellos diez premios Nobel, pidieron a la Organización de las Naciones Unidas establecer y consolidar regulaciones estrictas para la inteligencia artificial. El llamamiento público fue publicado en el sitio de la iniciativa redlines.ai y propone una prohibición internacional de una serie de escenarios que los autores consideran inaceptables, así como la creación, para finales de 2026, de reglas globales de obligado cumplimiento. Se subraya que, tras el despliegue masivo de ciertas tecnologías, puede resultar imposible recuperar el control sobre ellas.
En la carta se afirma que ya hay sistemas que muestran comportamientos engañosos y dañinos, adquiriendo cada vez más autonomía en la toma de decisiones y en la ejecución de acciones. Los firmantes advierten sobre riesgos relacionados con la posible superación de las capacidades humanas, la creación de pandemias artificiales, la difusión masiva de desinformación, la influencia psicológica dirigida sobre audiencias, incluidos los niños, las amenazas a la seguridad nacional e internacional, el desempleo a gran escala y violaciones sistémicas de los derechos humanos.
La iniciativa propone prohibir las prácticas más peligrosas. En la lista figuran el acceso directo de algoritmos a armas nucleares, la vigilancia total de la población, así como la suplantación de personas por máquinas sin una notificación clara y comprensible sobre la participación de la tecnología en la comunicación o en la prestación de servicios.
Los autores insisten en la urgencia. En su opinión, no se puede esperar a la próxima década: se necesita el próximo año para elaborar normas comunes; de lo contrario, la regulación eficaz quedará rezagada respecto a la realidad. El texto subraya que, a medida que las arquitecturas se vuelvan más complejas, será cada vez más difícil garantizar una supervisión humana significativa.
Entre los firmantes del llamamiento están Geoffrey Hinton, Yoshua Bengio, el cofundador de OpenAI Wojciech Zaremba, el director de seguridad de Anthropic Jason Clinton, el investigador de Google DeepMind Ian Goodfellow y varios otros empleados de ese laboratorio. Sin embargo, el director de DeepMind, Demis Hassabis, y el responsable de OpenAI, Sam Altman, no figuran en la lista.
Los promotores citan la experiencia del derecho internacional. El Tratado de No Proliferación de las Armas Nucleares de 1970 se convirtió en un referente para el control de tecnologías peligrosas, aunque India, Israel y Pakistán no se adhirieron a él, y Corea del Norte se retiró del acuerdo en 2003 y probó un artefacto tres años después. Como ejemplo exitoso se cita el Protocolo de Montreal de 1987, gracias al cual se logró prácticamente eliminar las sustancias que agotan la capa de ozono. También se señala un precedente reciente de autorregulación sectorial: los compromisos Frontier AI Safety Commitments, adoptados en mayo; los participantes prometieron desconectar modelos ante la aparición de un nivel de riesgo inaceptable, aunque esas promesas son de carácter voluntario.
La probabilidad de que la Asamblea General aborde este tema de inmediato es baja: la agenda ya está sobrecargada de conflictos y crisis humanitarias. No obstante, los autores esperan que la formulación de marcos claros ayude a bloquear de antemano las trayectorias más peligrosas y se convierta en punto de partida para la elaboración de normas obligatorias sobre el trabajo con inteligencia artificial.