LLMs en el ámbito jurídico: Transformación de la investigación y el análisis jurídicos

Resumen

La IA generativa y los grandes modelos lingüísticos (LLM) han demostrado un gran potencial en el sector jurídico, con capacidad para optimizar la eficiencia y aumentar la productividad de los profesionales del derecho. A pesar de las preocupaciones sobre la privacidad y la confidencialidad de los datos, muchos bufetes de abogados han comenzado a experimentar con los LLM para diversos casos de uso, como la redacción de documentos, la investigación de la jurisprudencia y el análisis de los competidores. Sin embargo, existen barreras para su adopción, como la alucinación de la IA, en la que los LLM pueden proporcionar información inexacta. La comprobación de los hechos por parte de profesionales cualificados es esencial para mitigar los riesgos. El cumplimiento de la confidencialidad del cliente es otra preocupación, pero las soluciones de enmascaramiento de datos y el manejo cuidadoso de la información pueden ayudar a resolver estos problemas.

IA Desde el lanzamiento de ChatGPT en noviembre de 2022, cada día surgen nuevos casos de uso para la IA generativa y los grandes modelos lingüísticos (LLM) en la empresa. Sin embargo, uno de los primeros adoptantes más prometedores de la tecnología ha sido el sector legal.

De hecho, la investigación muestra que el 80% de los líderes de bufetes de abogados cree que la IA generativa puede aplicarse al trabajo jurídico, y más del 50% sostiene que debería hacerse.

A primera vista, la razón de este interés es que los LLM ofrecen a los usuarios la capacidad de procesar grandes conjuntos de datos y obtener conclusiones en cuestión de segundos. Los profesionales del Derecho pueden utilizar los LLM para redactar documentos y escritos, investigar y analizar jurisprudencia, o incluso estudiar a competidores y clientes potenciales.

En resumen, la IA ofrece a los bufetes de abogados la posibilidad de optimizar toda su eficiencia.

El estado de los LLM en el ámbito jurídico

Hasta ahora, el sector jurídico ha sido testigo de una importante adopción de soluciones de IA generativa, con grandes bufetes, como Baker Mckenzie, Reed Smith y Allen & Overy, que han empezado a experimentar con esta tecnología.

Más ampliamente, los profesionales del derecho en su conjunto también parecen entusiasmados con las capacidades de los LLM, con una Encuesta LexisNexis 2023 de abogados, estudiantes de derecho y consumidores que encontró que el 84% de los encuestados en la profesión legal creen que la IA generativa aumentará la eficiencia de los abogados.

Si bien la adopción de los LLM para casos de uso legal ha sido prometedora hasta ahora, hay algunos que son más reacios a adoptarlos debido a las preocupaciones sobre la privacidad de los datos de los clientes. Por ejemplo, Mishcon de Reya ha prohibido por completo al personal el uso de ChatGPT.

Aunque algunos profesionales creen que las soluciones de IA generativa deberían prohibirse en el trabajo, parece que la mayoría está dispuesta a experimentar con la tecnología en un futuro próximo.

Los LLM en Derecho y el papel del copiloto jurídico

Una de las formas más sencillas en que los LLM pueden aportar valor a los profesionales del Derecho es actuando como asistente automatizado o copiloto. A lo largo de la jornada laboral, un abogado puede pedir a un LLM que realice determinadas tareas de investigación para reducir la cantidad de tiempo que tendría que dedicar a recopilar información manualmente.

Harvey.AI, una “IA jurídica sin precedentes” basada en GPT, está diseñada específicamente para bufetes de abogados y tiene la capacidad de realizar automáticamente tareas de investigación jurídica o de flujo de trabajo. Por ejemplo, un abogado podría preguntarle al asistente si una cláusula de la política de privacidad de datos de una organización infringe el GDPR.

Ashley Binetti Armstrong, profesora clínica adjunta de la Facultad de Derecho de la Universidad de Connecticut, publicó un estudio a principios de este año en el que sostenía que, si bien ChatGPT mostraba una “incapacidad” para llevar a cabo una investigación jurídica eficaz, había demostrado su eficacia a la hora de identificar fallos lógicos en las cláusulas de los contratos y de crear indicaciones para tareas de redacción jurídica.

Patricia Thaine, cofundadora y consejera delegada de Private.AI, también está de acuerdo en que el análisis de contratos es uno de los casos de uso clave para los abogados:

“La IA generativa y los LLM pueden ayudar a reducir el riesgo contractual. Pueden analizar contratos e identificar cláusulas específicas, como cláusulas de cesión y residuales, que necesitan una gestión proactiva. Al señalar estas cláusulas, los profesionales jurídicos pueden tomar las medidas necesarias para mitigar los riesgos potenciales y garantizar el cumplimiento de las obligaciones contractuales.”

Resumir documentos jurídicos, responder a preguntas jurídicas básicas e investigar sobre competidores o clientes son posibles casos de uso de esta tecnología, que puede aportar un enfoque de inteligencia aumentada al Derecho, combinando la experiencia humana con la escalabilidad de la IA para mejorar la productividad.

Barreras en el camino hacia la adopción: Alucinación

Aunque los bufetes de abogados sienten curiosidad por experimentar con la IA generativa, existen algunos obstáculos importantes en el camino hacia su adopción. Quizá el más importante sea la alucinación con la IA.

Las IA jurídicas son notoriamente propensas a la alucinación, es decir, a inventarse hechos, citas y otra información que podría desinformar al usuario. Como advierte Open AI a los usuarios en su sitio web, “ChatGPT puede producir información inexacta sobre personas, lugares o hechos”.

Si un abogado solicitara un resumen de una pieza de jurisprudencia y recibiera información incorrecta de la IA, esto podría introducir graves riesgos legales y financieros para la organización si no se controla.

Aunque las alucinaciones de la IA pueden reducirse con el tiempo afinando los datos de entrenamiento de un LLM, los profesionales del Derecho no pueden permitirse confiar ciegamente en que LLM como GPT proporcionen información con una precisión del 100%.

Por ello, toda la información relativa a casos legales, decisiones y citas debe ser verificada por un profesional cualificado.

¿Qué pasa con el cumplimiento?

El cumplimiento es otra preocupación importante para las empresas que experimentan con la IA generativa. Si un abogado introduce información sensible o detalles sobre un cliente en una consulta, podría constituir una violación de la confidencialidad del cliente si esa información se devuelve al proveedor de software (por ejemplo, si se utiliza ChatGPT, sería OpenAI).

Se trata de una preocupación muy real, ya que fuera del sector legal, hemos visto cómo Samsung prohibía ChatGPT después de que un usuario filtrara inadvertidamente datos confidenciales como parte de su solicitud.

La buena noticia es que las empresas no tienen por qué renunciar por completo a la IA generativa para proteger la confidencialidad de los datos de los clientes. Una forma de abordar estas preocupaciones es que los profesionales eviten introducir cualquier información que no esté ya disponible públicamente.

Otra posibilidad es utilizar una solución de enmascaramiento de datos para identificar o anonimizar los datos sensibles de modo que no puedan utilizarse para identificar a un cliente.

En cualquier caso, es muy recomendable que las empresas realicen una evaluación de riesgos antes de adoptar la IA generativa como parte de sus flujos de trabajo.

Trabajando de forma más inteligente con IA

En su forma actual, la IA generativa es una herramienta con el poder de aumentar la capacidad de los profesionales jurídicos. Aunque no puede utilizarse para sustituir a profesionales cualificados, sí puede servir para ayudar a abogados, secretarios y demás personal a realizar investigaciones de forma más eficaz y mejorar su productividad.

Temas relacionados

Tim Keary

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.