La IA no reemplazará a los soldados; ahora decidirá quiénes serán sus comandantes

La IA no reemplazará a los soldados; ahora decidirá quiénes serán sus comandantes

¿Puede la inteligencia artificial ser más honesta que la comisión militar?

image

El Ejército de EE. UU. comenzó a usar inteligencia artificial para ayudar en la selección de militares para los ascensos. Según los datos de la publicación Task & Purpose, el sistema debe facilitar el trabajo de los oficiales del Comando de Recursos Humanos del Ejército (AHRC), que ahora podrán filtrar más rápido a los militares que no cumplen los requisitos para el ascenso. Los algoritmos también se aplican en la fase de reclutamiento del personal.

La mayor general Hope Rampy, que dirige el AHRC, señaló que la carga de trabajo en las comisiones evaluadoras se ha vuelto tan grande que los oficiales físicamente no alcanzan a examinar detalladamente cada expediente. Llegan miles de expedientes, entre los cuales a menudo hay candidatos sin posibilidades de ascenso; sin embargo, la comisión sigue obligada a asignarles una puntuación en la tabla de clasificación. El uso de IA permitirá identificar de antemano a quienes cumplen los criterios formales, por ejemplo, nivel educativo y experiencia de servicio, y así ahorrar tiempo de los miembros de la comisión para analizar a los candidatos realmente prometedores.

El departamento de análisis de talento explicó que la automatización afectará solo la etapa inicial de clasificación. En cada paso posterior las decisiones seguirán siendo tomadas por personas que, si es necesario, podrán anular la selección del sistema. Según dijeron, el objetivo es orientar los esfuerzos de los expertos hacia una evaluación profunda de quienes son realmente competitivos, en lugar de gastar recursos en participantes obviamente no adecuados.

Al mismo tiempo, en el Ejército reconocen los riesgos existentes. Uno de ellos es el efecto de desplazamiento por automatización, cuando las personas comienzan a confiar demasiado en las decisiones de la máquina y pierden su propio juicio crítico. Los desarrolladores aseguran que los algoritmos se someten a pruebas para excluir la discriminación por motivos raciales, étnicos, de rango o de rama. Sin embargo, sigue sin resolverse el problema de la «caja negra»: los mecanismos internos de toma de decisiones en sistemas de IA complejos son opacos, lo que dificulta el control, la evaluación de la corrección del funcionamiento y la posibilidad de impugnar el resultado.

La aplicación piloto de la tecnología se está llevando a cabo ahora en el marco de las comisiones de ascenso del personal de suboficiales. La experiencia obtenida se planea usar al desarrollar sistemas similares para los oficiales, pero para ello el Ejército necesitará la aprobación del Congreso, ya que las decisiones sobre el ascenso de oficiales están reguladas por disposiciones federales separadas.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable