• Los magistrados se apoyarán en tecnologías como Google Bard y ChatGPT para redactar sus sentencias Foto referencial: iStock.

En un giro sin precedentes en la historia del sistema judicial británico, los jueces ahora podrán utilizar la inteligencia artificial (IA) en la redacción y evaluación de sus sentencias. 

La decisión fue tomada por el Poder Judicial de Cortes y Tribunales de Inglaterra en la que, con la autorización en mano, los jueces están habilitados para emplear herramientas como ChatGPT y Bard en la creación de fallos judiciales, basados en una guía elaborada para mantener límites y preservar la confidencialidad de la información.

Sin embargo, esta innovadora medida no escapó de las críticas. Sir Geoffrey Vos, el segundo juez de mayor rango en Inglaterra y Gales, subrayó la importancia de un uso cuidadoso de la IA por parte de los jueces. 

Alertan sobre suplantaciones de identidad en videos pornográficos con inteligencia artificial
Inteligencia artificial (IA). Foto: iStock.

“El juez a cargo deberá asumir la plena responsabilidad personal por todo lo que produzca (la herramienta de IA)”, explicó en el informe difundido en varios sitios de noticias.

Afirmó que, aunque la herramienta es un recurso disponible, los jueces deben asumir personalmente los resultados que produzcan estas tecnologías con el objetivo de preservar la confianza del público en el sistema judicial.

Desconfianza en la inteligencia artificial

Ryan Abbott, profesor de derecho en la Universidad de Surrey, señaló la preocupación en torno a la implementación de la tecnología en el ámbito judicial. 

La IA y el Poder Judicial es algo que preocupa especialmente a la gente, y es un lugar donde somos particularmente cautelosos a la hora de mantener a los humanos informados. Así que creo que la IA puede perturbar la actividad judicial más lentamente que en otras áreas y procederemos con más cautela allí”, expresó a la agencia de noticias AP.

¿Qué establece la guía judicial?

La guía establecida por la Oficina Judicial resalta la importancia de salvaguardar la información confidencial al interactuar con plataformas desarrolladas a partir de IA. 

Además, la misma insta a los jueces a evitar el ingreso de datos no públicos en los chatbots y a desactivar el historial de chat siempre que sea posible, subrayando la necesidad de un uso responsable de esta innovadora herramienta en el sistema legal.

“Esa información luego está disponible para ser utilizada para responder a consultas de otros usuarios. Como resultado, cualquier cosa que escribas podría hacerse pública. Debes desactivar el historial de chat en los chatbots de IA si está disponible”, detalla el informe.

Alertan sobre suplantaciones de identidad en videos pornográficos con inteligencia artificial
Inteligencia artificial. Foto: iStock.

Sin embargo, especialistas en seguridad informática sugieren no ingresar información sensible en los chatbots, debido a que el avance de estas herramientas puede también propiciar actos ilegales con los datos almacenados, ya sea de usuarios o de empresas. 

La decisión de incorporar la IA en el proceso judicial plantea interrogantes sobre el futuro de las decisiones judiciales y cómo esta tecnología podría influir en el desarrollo de la jurisprudencia. Diversos portales tecnológicos advierten que la divulgación involuntaria de estas informaciones podrían derivar en otros problemas legales.

Con la cautela como premisa, los jueces británicos ahora se aventuran en un territorio innovador con la necesidad de adaptarse a los avances tecnológicos del siglo XXI.

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) explicó que, como parte de su trabajo de apoyo a la innovación y la transformación digital, trabaja en desarrollar una formación en línea para operadores judiciales sobre IA y estado de derecho.

“Esta capacitación busca estimular un diálogo participativo con los operadores judiciales sobre las innovaciones relacionadas con la IA en el sistema judicial y las sentencias judiciales relativas a estas tecnologías”, detalló la Unesco en su sitio web.

Noticias relacionadas