19 de octubre de 2024

Los tribunales australianos están enfrentando un incremento en la presentación de documentos aparentemente generados por sistemas de inteligencia artificial, como ChatGPT, los cuales con frecuencia contienen errores significativos. Este fenómeno ha causado preocupación entre jueces y abogados, ya que el uso de estas herramientas ha generado un impacto negativo en la precisión de la información presentada en los tribunales.

Jueces de varios tribunales han criticado a individuos, empresas e incluso a abogados por someter solicitudes que incluyen citas de casos inexistentes o contenido sin coherencia, según informa el portal de noticias australiano Crikey. A pesar de que los jueces no siempre pueden confirmar directamente el uso de inteligencia artificial, los indicios más claros incluyen la aparición de material legal inventado y patrones de lenguaje característicos de estos sistemas.

Un ejemplo particularmente notable ocurrió cuando un abogado admitió haber utilizado un «software legal» que generó una lista de casos que no existían. En otro caso, un representante legal presentó un documento de 600 páginas que fue descrito como «confuso, repetitivo y sin sentido» por el tribunal.

No solo los abogados, sino también los ciudadanos parecen estar utilizando IA en procesos judiciales. Algunos jueces han descartado referencias personales que sospechaban fueron generadas por inteligencia artificial. En una apelación ante la Corte Suprema de Tasmania, el juez Alan Michael Blow determinó que el apelante había citado un caso ficticio. Además, la Comisión Australiana de Competencia y Consumo (ACCC) identificó un documento en el que una resolución final incluía una recomendación claramente influenciada por ChatGPT que sugería: «utilice la ortografía británica de ChatGPT».

El impacto de la IA en el sistema jurídico

Este problema no es exclusivo de Australia. Abogados en diversas partes del mundo han enfrentado despidos y sanciones debido a la presentación de información errónea generada por IA en los tribunales. Un estudio de la Universidad de Stanford encontró que las herramientas de investigación legal basadas en IA cometen errores en una de cada seis solicitudes, lo que resalta la necesidad urgente de una revisión exhaustiva de los documentos generados por estos sistemas.

En respuesta a estos problemas, varios reguladores legales y tribunales han establecido pautas o incluso prohibiciones sobre el uso de IA en los procesos judiciales. Sin embargo, la proliferación de estos casos sugiere que puede haber muchos más incidentes no reportados, lo que refuerza la importancia de educar a los usuarios sobre las capacidades y limitaciones de las herramientas de inteligencia artificial.

Actualmente, gran parte de la educación sobre IA en el ámbito jurídico está impulsada por actores con intereses comerciales. Esto subraya la necesidad de que tanto abogados como ciudadanos comprendan el uso adecuado de estas tecnologías y eviten depender ciegamente de ellas, protegiendo así la integridad del sistema legal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *