¿El control de Gemini pasa a manos militares? El Pentágono quiere confiar secretos de Estado a una IA que se equivoca una de cada diez respuestas.

¿El control de Gemini pasa a manos militares? El Pentágono quiere confiar secretos de Estado a una IA que se equivoca una de cada diez respuestas.

El Ejército de EE. UU. evita la dependencia de los contratistas recurriendo a tecnologías aún en desarrollo.

image

Google podría volver a convertirse en uno de los principales proveedores de IA militar para Estados Unidos. La empresa está negociando con el Pentágono un acuerdo que daría a los modelos Gemini acceso a circuitos clasificados y permitiría usarlos para tareas del departamento de defensa. Al mismo tiempo, Google intenta fijar de antemano en el contrato restricciones sobre el uso de sus modelos en los escenarios más sensibles.

Las negociaciones se desarrollan en un contexto de cambio notable de enfoque dentro del propio Pentágono. Los militares ya no quieren atarse a un solo proveedor y ahora están formando un grupo de varios socios de IA. Ese giro se hizo especialmente evidente tras el episodio con Anthropic. La compañía afirmó que ya trabajaba en redes clasificadas de EE. UU., pero luego surgió una disputa prolongada sobre las condiciones de uso de Claude. Tras eso, el Pentágono, al parecer, decidió no apostar tanto por un único proveedor.

Hace algunos años los contratos militares provocaban protestas y debates acalorados dentro de Google, y ahora la empresa vuelve al sector de defensa, aunque intenta definir los límites por adelantado. En el borrador del acuerdo Google quiere prohibir el uso de Gemini para la vigilancia masiva dentro del país y para armas autónomas sin intervención humana.

El propio Pentágono, por su parte, no se apresura a convertir a Gemini en su sistema principal. A los militares les importan no solo las capacidades del modelo, sino también cuán predecible es su comportamiento bajo carga, si se pueden verificar sus conclusiones y en qué punto sigue presente la persona que toma la decisión final. Para los militares incluso un error poco frecuente puede ser demasiado costoso, por lo que la cuestión no solo depende de la potencia del modelo, sino también de su controlabilidad.

La cautela en torno a Gemini es comprensible por otra razón. Google ya ha tenido problemas con la calidad de las respuestas en sus servicios públicos de IA. En uno de los análisis recientes de AI Overviews, Gemini 3 se equivocó en aproximadamente el 9% de las consultas. Para una herramienta de búsqueda habitual esa cifra ya es incómoda, y en el ámbito militar supone un riesgo enorme. La situación se complica además porque parte de las respuestas correctas luego resulta difícil comprobarlas adecuadamente con fuentes, y sin eso en tareas cerradas y sensibles el sistema pierde rápidamente valor.

Por eso no hay que alarmarse antes de tiempo. Un posible acuerdo difícilmente significará que Gemini vaya a integrarse de inmediato en procesos de combate críticos. Lo más probable es que el Pentágono amplíe su conjunto de herramientas para análisis, apoyo a la toma de decisiones y trabajo administrativo en entornos clasificados. Para Google las negociaciones pueden ser una oportunidad para volver a consolidarse en el mercado de tecnologías de defensa. Para el Pentágono, otro paso hacia un esquema en el que la IA militar no se construye en torno a un único favorito sino en torno a varios sistemas en competencia con diferentes restricciones y áreas de aplicación.