El ingeniero antepuso sus convicciones personales a los intereses del ejército estadounidense.

La salida de la jefa del departamento de robótica de OpenAI, Caitlin Kalinowski se convirtió en otra señal de tensión interna en la empresa ante su disposición a ocupar el lugar de Anthropic en proyectos del Pentágono relacionados con el uso militar de la inteligencia artificial. Según la propia Kalinowski, la decisión fue difícil, pero estuvo dictada no por conflictos laborales, sino por consideraciones éticas personales.
Caitlin Kalinowski encabezó equipos de OpenAI responsables del desarrollo de hardware y de robótica desde noviembre de 2024. En una comunicación dirigida a sus colegas, la exdirectora dejó claro que considera la inteligencia artificial una herramienta importante para la seguridad nacional, pero no está dispuesta a aceptar el uso de esos sistemas para la vigilancia masiva de ciudadanos de Estados Unidos sin base legal ni para la automatización de armas letales. Eso, según ella, fue la razón de su salida.
Al mismo tiempo, Kalinowski subrayó su respeto por el director ejecutivo de OpenAI, Sam Altman, y por el equipo de la empresa, y valoró positivamente el trabajo conjunto. Antes de pasar a OpenAI participó en la creación de gafas de realidad aumentada en Meta; con anterioridad trabajó nueve años en la división Oculus, y aún antes ayudó a Apple a diseñar los portátiles MacBook.
El descontento dentro de OpenAI, según la publicación, no se limitó a un solo despido. En el contexto del acuerdo urgente con el departamento de defensa estadounidense, parte del personal percibió negativamente la orientación de la empresa tras el conflicto en torno a Anthropic. Sam Altman, al comentar el acuerdo, enfatizó que en materia de inteligencia y uso de armas la prioridad debe permanecer con el Estado, incluso si la posición de las autoridades difiere de los principios de una empresa privada.
En OpenAI, por su parte, intentan mostrar que los límites de la colaboración con el Pentágono están, en todo caso, definidos. La empresa afirma que los acuerdos no permiten la vigilancia masiva de ciudadanos ni autorizar el uso de sistemas armados autónomos sin la participación humana en la decisión de seleccionar objetivos. Sin embargo, la salida de Kalinowski muestra que, para parte del equipo, incluso esas salvedades no eliminan las cuestiones morales clave.