«No sabía que la IA fuera capaz de mentir» — la excusa principal de los abogados ante otra multa

«No sabía que la IA fuera capaz de mentir» — la excusa principal de los abogados ante otra multa

Abogados idean todo un surtido de excusas por citas falsas atribuidas a la IA en sus escritos; hasta ahora ninguna ha evitado sanciones.

image

En California, un tribunal de apelaciones emitió una sentencia ejemplar contra un abogado que presentó documentos con citas falsas creadas con ChatGPT, Claude, Gemini y Grok. El tribunal determinó que casi todas las referencias en su escrito eran inventadas, y impuso una multa de 10 000 dólares — récord en casos de este tipo. En la motivación de la resolución se subraya que este veredicto debe servir de advertencia para los abogados: la responsabilidad por el uso de IA generativa recae en ellos mismos, y no se puede ignorar la posibilidad de "alucinaciones" de los sistemas.

El abogado explicó que desconocía la tendencia de las redes neuronales a inventar fuentes y que no verificó el material manualmente. Admitió su culpa y añadió que ya recibió formación para evitar errores similares en el futuro. Los jueces señalaron que la IA se usa de forma generalizada en la práctica jurídica, y que su uso imprudente produce precedentes y referencias falsos que sobrecargan el sistema judicial en todo el país.

El medio 404 Media estudió durante varios meses los archivos judiciales y encontró decenas de historias similares. Para el análisis se utilizó la base del investigador Damien Charlotin, donde ya se han recopilado más de 410 casos en todo el mundo, de los cuales 269 en EE. UU. Normalmente estas bases registran las sanciones en sí, pero los periodistas se centraron en las justificaciones de los abogados. Para ello tuvieron que consultar complejos archivos federales y regionales, comprar copias de documentos y buscar explicaciones en las "respuestas a las solicitudes del tribunal".

Los motivos que los abogados presentan como justificaciones son variados. Algunos culpan los plazos ajustados y la sobrecarga de casos, otros citan enfermedades o tragedias familiares. También hay quienes responsabilizan a asistentes y contratistas externos. Se encuentran argumentos más exóticos: desde "un experimento con IA" hasta fallos del sistema, cortes de Internet o la infección de los equipos por malware.

Lo común en todas estas historias es que los abogados cada vez más se encuentran bajo la presión simultánea de trabajar más rápido, asumir más casos y satisfacer las expectativas de clientes que exigen resultados inmediatos.

Sin embargo, nada de eso los exime. Cualquier especialista en el ámbito jurídico debe, por principio, verificar minuciosamente los hechos y velar por la exactitud de las formulaciones. Hoy muchos abogados a menudo resultan más descuidados que sus clientes, confiando documentos cruciales a una máquina sin molestarse a revisarlos.

Además, los servicios de IA generativa dejan de ser meras herramientas auxiliares y pasan a formar parte habitual de la rutina jurídica. Ya están integrados en bases de datos y sistemas de referencia, se ofrecen como soluciones por parte de startups y se perciben como algo natural. Pero cuanto más natural parece su uso, mayor es el riesgo de que los errores de las redes neuronales se filtren sin ser detectados en el proceso, minando la confianza en la profesión y cuestionando la calidad del trabajo jurídico.

Además de ChatGPT, Claude y Gemini, los abogados mencionan Grok, Perplexity e incluso las funciones integradas de Westlaw y LexisNexis. En el mercado hay decenas de startups que ofrecen asistentes automatizados para juristas. Sin embargo, las estadísticas de Damien Charlotin muestran: es precisamente el uso de sistemas generales sin verificación lo que con mayor frecuencia conduce a consecuencias catastróficas — desde sanciones hasta la amenaza para la carrera profesional.

En la última semana el investigador registró once casos nuevos. La situación cambia tan deprisa que incluso abogados experimentados no dan abasto para seguir los nuevos escándalos. La jurisprudencia en EE. UU. ahora se está formando en un contexto en el que el uso de IA generativa ya no puede considerarse excepcional, pero cada movimiento imprudente se convierte en un riesgo para la reputación y la licencia.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse