Steve Wozniak y Richard Branson se suman al llamado para prohibir la IA sin control.
Los principales investigadores en inteligencia artificial Geoffrey Hinton y Yoshua Bengio hicieron un llamado a los líderes mundiales para que firmen una declaración internacional que prohíba la elaboración de sistemas de superinteligencia hasta que no exista un consenso científico sobre la seguridad de estas tecnologías y cuente con un amplio apoyo público. El documento titulado Statement on Superintelligence fue publicado por el instituto sin fines de lucro Future of Life Institute (FLI).
La iniciativa recibió el respaldo de varias personalidades conocidas: entre los firmantes se encuentran el cofundador de Apple Steve Wozniak, el fundador de Virgin Richard Branson, la expresidenta de Irlanda Mary Robinson, el copresidente del WEF André Hoffmann, así como el príncipe Harry y su esposa Meghan Markle. Según Yoshua Bengio, el progreso en modelos avanzados podría hacer que las máquinas superen al ser humano en la mayoría de las tareas cognitivas ya en los próximos años. Subrayó que estas tecnologías pueden ayudar a resolver problemas globales, pero que sin control representan una amenaza grave. El investigador insiste en la creación de métodos científicamente fundamentados que eliminen la posibilidad de causar daño a las personas, ya sea por desalineación técnica o por uso malintencionado.
Future of Life Institute fue fundado en 2014 y durante una década ha advertido sobre el peligro de un desarrollo incontrolado de la inteligencia artificial. Según la organización, para la noche del 22 de octubre más de 21 000 personas habían firmado la declaración en el sitio del FLI y otras aproximadamente 20 000 lo hicieron a través de la plataforma estadounidense sin fines de lucro Ekō, conocida por su lema «La gente y el planeta son más importantes que las ganancias».
Es significativo que entre las ausencias de firmas estén los nombres de las figuras más influyentes de la industria: Elon Musk, uno de los primeros partidarios del FLI y crítico activo de la superinteligencia, no apoyó la iniciativa. A él se sumaron con su silencio el director ejecutivo de Meta, Mark Zuckerberg, y Sam Altman de OpenAI. Sin embargo, sus declaraciones previas sobre los riesgos de la inteligencia artificial se citan en el documento por separado —en la sección «Declaraciones públicas de los que no firmaron». Allí también aparecen citados el director de Anthropic Dario Amodei, que valoró la probabilidad de un desenlace catastrófico en un 25%, y el responsable de Microsoft AI Mustafa Suleyman, que pidió no crear sistemas cuya seguridad no esté demostrada.
En el FLI señalaron que la opinión pública se inclina cada vez más hacia la necesidad de regulación. Según una encuesta nacional reciente, casi dos tercios de los estadounidenses apoyan la introducción de normas estrictas para los desarrolladores de IA, y más del 60% se oponen a continuar la creación de sistemas sobrehumanos hasta que su seguridad no esté garantizada. Solo el 5% de los residentes de EE. UU. considera aceptable la actual trayectoria de desarrollo de la inteligencia artificial sin restricciones.