Los tribunales del mundo castigan a abogados por usar falsedades de ChatGPT. Y ya no hay perdón

Los tribunales del mundo castigan a abogados por usar falsedades de ChatGPT. Y ya no hay perdón

Citar un caso inexistente puede llevarte a la cárcel. La excusa «la IA me engañó» ya no funciona.

image

En Londres se ha dictado un fallo sin precedentes: los abogados que citen casos judiciales inexistentes podrán ser considerados responsables de desacato al tribunal, e incluso enfrentar cargos penales en los casos más graves. Así lo determinó un tribunal londinense al examinar dos causas en las que abogados utilizaron inteligencia artificial generativa para preparar documentos procesales.

En ambos casos, se descubrió que los escritos contenían referencias a precedentes judiciales supuestamente existentes, que en realidad no lo eran. La jueza Victoria Sharp señaló que tales acciones representan una amenaza para todo el sistema judicial y socavan la confianza pública. Subrayó que las innovaciones tecnológicas no eximen a los abogados de su responsabilidad profesional.

El fallo pone especial énfasis en el papel de la comunidad legal. Según la jueza, los abogados en cargos de liderazgo están obligados a establecer mecanismos eficaces para supervisar el uso de redes neuronales en su práctica. Los estándares éticos no deben ser una formalidad, sino parte de la rutina diaria. No se trata solo de la responsabilidad de individuos concretos, sino de una disciplina colectiva.

Aunque los organismos reguladores ya han emitido recomendaciones sobre el uso de IA en el ámbito jurídico, Sharp considera que no es suficiente. A su juicio, las guías públicas no sustituyen el control sistemático. Son necesarios instrumentos reales de formación y sanciones para evitar que incidentes similares se repitan.

Desde que ChatGPT y otras redes neuronales se hicieron de uso masivo, los tribunales de todo el mundo enfrentan un nuevo problema: la generación automática de argumentos convincentes, pero falsos. Como estos modelos se entrenan en enormes volúmenes de texto y generan respuestas basadas en probabilidades estadísticas, pueden «alucinar», es decir, inventar hechos inexistentes con una confianza aparente total.

Estas alucinaciones ya han sido motivo de varios escándalos judiciales. El caso más conocido ocurrió en EE. UU.: dos abogados de Nueva York fueron multados con 5.000 dólares cada uno tras presentar ante el tribunal seis sentencias ficticias. Todas las referencias habían sido generadas por ChatGPT, y los propios abogados no verificaron su autenticidad.

El caso se enmarcaba en un proceso por daños personales. El juez notó formulaciones extrañas en los documentos presentados y solicitó confirmación. Tras una verificación adicional, se reveló que los precedentes citados nunca existieron. No obstante, su estructura y estilo eran tan convincentes que ninguno de los participantes del proceso sospechó el error.

Ante la ausencia de un mecanismo universal para verificar fuentes, los especialistas siguen siendo plenamente responsables de la veracidad de la información utilizada. La inteligencia artificial no tiene capacidad de verificación: solo reproduce patrones de textos previos. Esto la vuelve potencialmente peligrosa en campos donde la precisión es crítica.

Ahora los jueces tienen base legal para exigir a los abogados una verificación rigurosa de todas las fuentes, sin importar si el documento fue escrito manualmente o generado con una IA. Además, el fallo establece un precedente para todo el sistema legal y deja claro: la nueva tecnología no elimina las antiguas obligaciones. Cualquiera que trabaje ante un tribunal debe recordar que la automatización no es excusa para la negligencia.

Así, la IA en el ámbito jurídico se convierte no solo en una herramienta, sino también en un factor de riesgo. Si antes los errores de los abogados eran producto de la distracción humana, ahora se suma la necesidad de controlar el trabajo de las máquinas. Y mientras esas máquinas no aprendan a comprobar los hechos, toda la carga de las consecuencias recaerá sobre los hombros de las personas.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!