Comienza una nueva era en la justicia.
El sheriff Max Dorsey del condado Chester en Carolina del Sur lidera la investigación de una gran conspiración y decidió emplear una herramienta inusual —el sistema de inteligencia TimePilot. El programa fue creado por la empresa Tranquility AI, que salió del sigilo en febrero, y ya se utiliza al menos en una docena de agencias de aplicación de la ley en todo el país. Dorsey explica que la investigación moderna implica conjuntos de datos que una persona no puede procesar físicamente. Un solo teléfono inteligente a menudo contiene terabytes de información, y estudiar manualmente tal volumen es prácticamente imposible. TimePilot se encarga de ordenar y analizar, ayudando a encontrar rápidamente elementos clave del caso.
El sheriff reconoce que no confía en las conclusiones del programa sin verificarlas y siempre coteja los resultados con las pruebas originales. Sin embargo, la propia posibilidad de obtener en segundos un resumen o extraer relaciones importantes hace que el sistema sea imprescindible para el trabajo de un equipo pequeño de investigadores. Según Dorsey, es especialmente útil que la consulta pueda formularse con una frase habitual, y la respuesta llega en forma de un resumen listo con énfasis en los detalles relevantes.
Tranquility presenta a TimePilot como una herramienta que acelera el trabajo, pero no reemplaza a la persona. En el sitio web de la empresa se habla del compromiso con el uso ético de la IA y de la obligatoriedad del control humano. En una entrada reciente del blog se señaló que estos sistemas no deben sustituir la decisión judicial, sino solo apoyarla; además, los datos deben usarse estrictamente para el fin previsto y anonimizarse en la mayor medida posible. La empresa también cerró una asociación con el importante distribuidor de soluciones informáticas Carahsoft, lo que puede ampliar significativamente la difusión del producto. Parte de las agencias recibió acceso gratuito en el marco de programas de subvenciones.
Servicios similares también sacan al mercado otros actores —Allometric y Truleo. El primero afirma que su sistema AirJustice ya ayudó a lograr una condena y se utiliza no solo en la fiscalía, sino también en la oficina de abogados por encargo. El segundo ofrece un «analista virtual de delitos» y sostiene que cientos de departamentos se conectaron al servicio en apenas unos meses. El coste de la suscripción es de 200 dólares por usuario al mes.
No obstante, abogados y organizaciones de derechos humanos advierten: el uso de la IA en el proceso penal conlleva riesgos serios. La amenaza principal es que los algoritmos pueden pasar por alto el contexto o no identificar pruebas exculpatorias, y que los investigadores y fiscales sobrecargados acaben fiándose de resúmenes cómodos en lugar de examinar detenidamente las pruebas. El peligro se agrava porque los desarrolladores no revelan los detalles del entrenamiento de los modelos, amparándose en el secreto comercial, aunque en el ámbito de la justicia esto plantea preguntas sobre la responsabilidad y la admisibilidad de esas «cajas negras».
Los abogados recuerdan que resumir páginas de actas o horas de grabaciones de vídeo es, de hecho, editar, y si esos recortes distorsionan el panorama, se convierte en una violación de los derechos civiles. Otros abogados comparten la misma opinión: la IA no está entrenada para ser fiscal; solo selecciona elementos que coinciden con la consulta dada. Lo que queda fuera de ese marco puede ser decisivo para la inocencia del acusado.
Investigadores del ámbito académico también evalúan la tecnología con escepticismo. Un profesor de derecho penal de la Universidad de Carolina del Sur considera que el ahorro de tiempo en la práctica no es tan grande, porque sigue siendo necesario revisar cada conclusión. Al mismo tiempo, hay potencial en este nuevo segmento, que experimentará un rápido desarrollo comercial. Otros especialistas recuerdan la llamada «problemática estructural de las omisiones», cuando un producto de software crea una narrativa fluida pero pueden faltar detalles importantes.
A pesar de las críticas, los primeros usuarios subrayan la utilidad práctica de TimePilot. El fiscal del condado Cassia en Idaho señala que el programa encuentra en segundos material entre miles de fotografías y horas de grabaciones. En la policía de la ciudad de Choctaw, Oklahoma, están convencidos de que el sistema será útil para resolver casos sin avanzar, permitiendo componer rápidamente la imagen de hechos pasados. Los vídeos demostrativos en el sitio de Tranquility muestran cómo TimePilot analiza las pruebas en el caso del maratón de Boston o el asesinato de Gabby Petito, construyendo sus propias conclusiones analíticas. Allí también se promete que el uso del producto reduce el plazo de las negociaciones de culpabilidad de un mes a tres días y ahorra cientos de miles de dólares.
Sigue sin resolverse cómo los tribunales tratarán los resultados de estos sistemas y si los jurados y los jueces sabrán que una inteligencia artificial participó en el caso. Para los defensores de derechos humanos, lo fundamental sigue siendo uno: cuando está en juego la privación de libertad o la amenaza a la vida, los algoritmos ocultos no deben suplantar las garantías procesales. Y mientras las empresas prometen transparencia y control, los abogados recuerdan el principio constitucional básico: nadie puede ser privado de libertad sin el debido proceso legal.