Anthropic dijo "no" y quedó fuera; el Pentágono encontró a quienes dicen "sí" sin reservas

Anthropic dijo "no" y quedó fuera; el Pentágono encontró a quienes dicen "sí" sin reservas

La IA va a la guerra: sin límites, sin la participación de Anthropic y con el visto bueno del Congreso.

image

El Pentágono está ampliando drásticamente el uso de la inteligencia artificial en el ejército y está dispuesto a permitirla donde antes existían estrictas restricciones. Ahora no se trata solo de tareas de apoyo, sino también de operaciones secretas, incluida la asistencia en la selección de objetivos. El Departamento de Defensa de Estados Unidos ha firmado nuevos acuerdos con Nvidia, Microsoft, Amazon y Reflection AI. Más tarde a la lista se unió también Oracle. Todas las empresas aceptaron proporcionar sus soluciones para su uso en redes militares clasificadas.

Las nuevas condiciones dan a los militares mucha más libertad. La formulación «uso operativo legal» permite aplicar modelos modernos de inteligencia artificial en tareas de combate, incluido el análisis de datos para la orientación. Al mismo tiempo, se eliminaron en la práctica las restricciones por las que abogaba Anthropic. Anteriormente la compañía se negó a colaborar tras disputas con el departamento.

Los militares estadounidenses ya utilizaban desarrollos de empresas tecnológicas, pero desde finales de 2025 buscan ampliar las normas. En acuerdos similares ya participan SpaceX, OpenAI y Google. Tras las noticias sobre el contrato, las acciones de Oracle subieron un 6,5%. En el Pentágono hablan abiertamente de un cambio de rumbo: el ejército debe convertirse en «orientado a la inteligencia artificial». A la vez, el departamento intenta reducir la dependencia de proveedores concretos y acelera la búsqueda de alternativas al sistema Claude, con el que surgió un conflicto.

El conflicto con Anthropic fue duro. La compañía no quería que las tecnologías se usaran para la vigilancia masiva de civiles o para armamento totalmente autónomo. Los militares se negaron a aceptar tales restricciones y empezaron a desplazar al desarrollador de las cadenas de suministro. El conflicto ya llegó a los tribunales. Los nuevos acuerdos con Nvidia muestran cuánto ha cambiado la posición del Pentágono. La empresa aceptó no imponer restricciones adicionales al uso de sus modelos, salvo las exigidas por la legislación estadounidense. Los militares podrán aplicar las tecnologías incluso en el desarrollo de sistemas de armamento autónomos.

Al mismo tiempo, el departamento asegura que las decisiones finales sobre el uso de la fuerza siguen siendo humanas. El secretario de Defensa Pete Hegseth declaró ante el Congreso que la inteligencia artificial no toma decisiones letales. Los militares esperan que las nuevas herramientas ayuden a procesar más rápidamente enormes volúmenes de datos y a orientarse mejor en entornos complejos. Ya ahora se emplean este tipo de sistemas, por ejemplo en la plataforma Maven, que se utiliza en operaciones relacionadas con Irán.

Los críticos advierten sobre los riesgos. Los algoritmos pueden cometer errores, y los militares pueden confiar demasiado en sus conclusiones. Esa dependencia de decisiones automáticas en tareas donde el precio de un error es la vida humana genera cada vez más controversias.