Sin vigilancia ni sistemas letales autónomos: Anthropic y el Pentágono no se ponen de acuerdo sobre cómo el Ejército de EE. UU. empleará la IA

Sin vigilancia ni sistemas letales autónomos: Anthropic y el Pentágono no se ponen de acuerdo sobre cómo el Ejército de EE. UU. empleará la IA

Anthropic y el Pentágono no logran ponerse de acuerdo sobre el uso de la IA en las fuerzas armadas.

image

El Departamento de Defensa de Estados Unidos entró en un fuerte enfrentamiento con la empresa Anthropic debido a cómo los militares pretenden utilizar las nuevas tecnologías. El punto de discordia fueron las restricciones que la empresa exige imponer para que sus sistemas no se empleen en la orientación autónoma de armas ni en la vigilancia dentro del país.

Según fuentes familiarizadas con las negociaciones, las partes discutieron los términos de un gran contrato por hasta 200 millones de dólares, pero al final llegaron a un impasse. Anthropic insiste en mecanismos de seguridad que impidan el uso de sus modelos sin intervención humana al seleccionar objetivos para un ataque, así como para la vigilancia de ciudadanos de Estados Unidos. El departamento militar no está de acuerdo con ese enfoque.

Representantes de la empresa declararon que sus tecnologías ya son ampliamente utilizadas por organismos de seguridad nacional estadounidenses y que el diálogo con las fuerzas armadas continúa. El departamento no respondió de forma inmediata a la solicitud de los periodistas.

La situación se convirtió en una de las primeras pruebas serias para las relaciones entre los desarrolladores de inteligencia artificial y las autoridades de Estados Unidos. Tras varios años de tensión, las grandes empresas tecnológicas comenzaron a colaborar más activamente con el gobierno, también en proyectos militares. Ahora, en la práctica, se decide si los desarrolladores privados pueden influir en cómo el ejército y los servicios de inteligencia aplican estos sistemas en condiciones de combate.

Fuentes indican que los militares se remiten a su estrategia de implantación de inteligencia artificial y consideran que pueden usar desarrollos comerciales independientemente de las normas internas de las empresas, siempre que ello no infrinja las leyes estadounidenses. Sin embargo, sin la participación de especialistas de Anthropic será difícil desplegar sus modelos, ya que son los empleados de la empresa quienes configuran y adaptan los sistemas para tareas concretas.

El conflicto surgió en un momento complicado para Anthropic. La empresa de San Francisco se prepara para una posible salida a bolsa y promociona activamente sus soluciones para clientes gubernamentales. Anteriormente obtuvo un contrato del Pentágono junto con varios otros grandes desarrolladores de inteligencia artificial.

El director general de Anthropic, Dario Amodei, declaró recientemente en público que la inteligencia artificial debe ayudar a la defensa del país, pero no en escenarios que conviertan al Estado en un régimen autoritario. Anteriormente también se pronunció con dureza sobre casos de muerte de ciudadanos estadounidenses durante protestas contra la política migratoria, lo que aumentó la tensión en torno al tema del uso de tecnologías en operaciones de seguridad.