Cargando. Por favor, espere

Propuesta de un agente inteligente para asegurar un uso responsable de la IA generativa por los abogados

  • 29-2-2024 | LA LEY
  • Un equipo de investigadores del Codex de la Universidad de Stanford analiza las características que debería tener un sistema automatizado capaz de controlar eficazmente el uso responsable de esta tecnología por parte de los profesionales
Portada

Carlos B Fernández. La difusión generalizada de las herramientas de IA generativa, como ChatGPT, está propiciando un uso cada vez más frecuente de las mismas por los profesionales del Derecho, en particular, de los abogados.

Sin embargo, las consecuencias de un uso imprudente y no supervisado de estos sistemas, están empezando a provocar problemas a los profesionales que dan por buenos los resultados que ofrecen, trasladándolos directamente, por medio de sus escritos, a los tribunales de justicia.

En este sentido, se han ido conociendo a lo largo de los últimos meses diferentes casos de abogados que han invocado en defensa de los intereses de sus clientes precedentes jurisprudenciales o textos legales inexistentes o de contenido distinto al citado. Y tampoco han faltado los jueces que han cometido los mismos errores al redactar sus sentencias.

Y aunque estos modelos han ido perfeccionando sin pausa sus prestaciones, sigue siendo inevitable la generación de errores, conocidos como alucinaciones, que algunos estudiosos del tema consideran no un fallo sino una característica de los mismos.

Ello ha llevado a cuestionar la relación de los profesionales del Derecho con estas herramientas y con el uso que hacen de ellas.

Un reciente artículo publicado por dos expertos del Codex de la Universidad de Stanford (un centro resultado de la asociación entre la Law School de esa universidad y su departamento de ciencias de la computación), Megan Ma y John Nay, titulado “A Supervisory AI Agent Approach to Responsible Use of GenAI in the Legal Profession”, propone un modelo de agente inteligente para asegurar el uso responsable de la IA generativa en el sector legal.

Este agente se plantea como un proceso en cuatro pasos. En primer lugar, determinar si una pregunta que un humano hace al sistema de IA está dentro del ámbito de ese sistema de IA concreto (para, en caso contrario, enviar la pregunta y la respuesta producida por la IA a un abogado para su revisión). En segundo lugar, determinar si una entrada al sistema se trata de un potencial ataque malicioso (y, en caso afirmativo, finalizar la interacción). En tercer lugar, determinar si en la consulta se han introducido datos personales en el sistema (y, en caso afirmativo, finalizar la interacción). Por último, en cuarto lugar, el sistema etiqueta claramente si la respuesta ha sido elaborada por un ser humano o por una IA.

Los autores destacan, de inicio, que a los profesionales del Derecho se les pide, simultáneamente, que asesoren a sus clientes sobre cómo mitigar suficientemente los riesgos que plantean el uso de estas tecnologías, al tiempo que sufren exactamente las mismas tensiones por lo que respecta a su propio trabajo.

En este sentido, citando lo dicho por el Presidente del Tribunal Supremo de los EEUU, el juez John G. Roberts, en su Informe Anual de 2023, recalcan que en el trabajo de los abogados es muy necesario un cuidadoso equilibrio en la colaboración hombre-máquina, concretamente en los aspectos relativos al razonamiento y en especial, en relación con el tratamiento de los matices, cuya importancia es fundamental  para el Derecho, consituyendo un aspecto que no puede sustituirse por las máquinas y que hace que muchos todavía confíen más en los humanos para apreciarlos.

Por ello, y para avanzar en el estudio de qué mecanismos deben existir para garantizar y verificar continuamente una supervisión y responsabilidad adecuadas por parte de expertos humanos a los resultados de la IA generativa, los autores del documento proponen regular la conducta profesional responsable mediante un enfoque integrado humano-máquina, al que denominan supervisión humana de la IA asistida por agentes de IA (AI agent-assisted human supervision of AI).

Es decir, plantean la utilización de un sistema intermedio entre el modelo de lenguaje y el resultado final, para validar su adecuación a la conducta esperada del profesional.

Para ello, abordan en primer lugar la noción de uso responsable de la tecnología por parte de los profesionales del Derecho y cómo se enmarca y se debate actualmente. A continuación, se define más específicamente cómo unos agentes inteligentes supervisores pueden desempeñar un papel importante en la futura regulación de la conducta responsable y se proponen unas posibles características para el mismo.

Noción del uso responsable de la IA por los abogados

Los autores comienzan recordando en este sentido cómo la llegada de ChatGPT provocó, desde su aparición en noviembre de 2022, que el MIT crease un Grupo de Trabajo, formado por profesionales del derecho y académicos, para ofrecer orientación sobre el uso responsable de la IA generativa por estos profesionales. Este germen inicial evolucionó hasta convertirse en un conjunto formalizado de principios rectores que evidenció que las reglas sobre responsabilidad profesional ya aplicables en los EEUU a los profesionales del Derecho (por ejemplo, las Reglas de Conducta Profesional de la ABA), explican en gran medida cómo deben utilizar los abogados estas tecnologías. Sin embargo, lo que difiere es su aplicación concreta.

Así, por medio de ejemplos de prácticas coherentes e incoherentes con esas obligaciones, este informe ofrecía una orientación preliminar que traducía los deberes conocidos de conducta profesional en un comportamiento responsable para la era de la IA generativa.

Posteriormente, el 16 de noviembre de 2023, el Comité de Responsabilidad y Conducta Profesional (COPRAC) del Colegio de Abogados del Estado de California elaboró y adoptó como Guía Práctica un conjunto de deberes que conciliaban cuidadosamente las leyes existentes con las directrices sobre cómo deben actuar los abogados cuando utilizan herramientas de IA generativa. Esta Guía Práctica es una ampliación de los principios y directrices del Grupo de Trabajo del MIT.

Y aunque estos textos han generado un inmenso valor a la hora de definir lo que es un comportamiento responsable, queda pendiente precisamente cómo aplicar y hacer efectivos en la práctica esos principios.

Para salvar ese obstáculo, los autores proponen una analogía con lo aplicado en el ámbito de los vehículos autónomos. En este, lo que en un principio empezaron siendo cuestiones amorfas de seguridad y responsabilidad extracontractual, pronto giraron hacia debates prácticos sobre qué dispositivos son necesarios para alertar a los conductores humanos de su necesidad de "retomar el volante". Los avances en esta dirección siguieron desarrollando sistemas de alarma cada vez más complejos.

Extrayendo conclusiones de esta práctica, los autores deducen que el éxito de la supervisión y la rendición de cuentas del trabajo humano realizado con ayuda de máquinas suele depender de una colaboración híbrida hombre-máquina que incluye tres componentes clave: 1) un mecanismo automatizado de supervisión continua; 2) un sistema de señalización o alerta y, 3) de la existencia de unas directrices definidas para la verificación.

A partir de este diseño, los usuarios pueden añadir límites de estructura, tipo y calidad a los resultados de los modelos fundamentales. Esto significa que los usuarios pueden especificar y validar cómo debe comportarse un modelo fundamental e intentar tomar medidas correctivas cuando el modelo se comporta fuera de estas reglas predeterminadas. Esto incluye, por ejemplo, la prevención de vulnerabilidades de seguridad mediante la verificación de respuestas que no contengan información confidencial.

Características de un agente supervisor inteligente

El enfoque que Ma y Nay consideran ideal integra dinámicamente las salvaguardas (guardrails) establecidos para los es LLM y el análisis jurídico, de forma que capte continuamente los matices de la profesión jurídica.

En este sentido, consideran el papel de los agentes de IA supervisores, como unos asistentes que no sólo proporcionan una monitorización continua de los compromisos en tiempo real con los modelos fundamentales, sino que también ofrecen una capacidad de triaje inicial que facilita la intervención y difiere la toma de decisiones al experto humano.

Dicho de otro modo, los agentes de IA supervisores podrían funcionar como los "sistemas de alarma inteligentes" de los vehículos autónomos, para la gobernanza y la aplicación de prácticas responsables.

En una visión más amplia, un "agente de IA" es un programa autónomo que puede emprender acciones para alcanzar objetivos. Los agentes generalistas que pueden actuar en distintos ámbitos y contextos de forma fluida, como un ser humano, no son posibles con los modelos subyacentes actuales; sin embargo, los agentes de IA específicos para determinadas tareas acaban de hacerse posibles por medio de una mejor definición de unas llamadas cuidadosamente elaboradas (prompts) a los LLM.

Los agentes pueden construirse con fines específicos en contextos suficientemente delimitados; por ejemplo, para completar específicamente tareas de comprobación de garantías para otros agentes de IA.

Los agentes de IA supervisores pueden diseñarse para evaluar si el contenido o las acciones propuestas cumplen la normativa o las directrices pertinentes. Pueden servir como una fase de comprobación y señalar qué puede ser problemático con una norma determinada, permitiendo la supervisión humana por parte de expertos que posean los conocimientos jurídicos necesarios para comprender rápidamente y potencialmente intermediar en una interacción entre una IA y un usuario (ya sea ese usuario un humano u otra IA).

De este modo, los agentes supervisores de IA pueden servir como factor de desbloqueo crítico para el despliegue seguro de sistemas de IA en ámbitos de la economía que cuentan con códigos de conducta profesionales e importantes regímenes de certificación, como la medicina, la planificación financiera y los servicios jurídicos. A los proveedores de estos servicios (por ejemplo, directores de empresas, asesores de inversión, abogados y médicos) se les imponen deberes de cuidado profesional para guiar su comportamiento hacia el bienestar de los seres humanos a los que prestan sus servicios (por ejemplo, accionistas de empresas, clientes inversores y jurídicos y pacientes sanitarios).

Conceptos como el deber fiduciario son fundamentales para generar confianza entre los proveedores de servicios esenciales y quienes los reciben. Los servicios jurídicos, en particular, están maduros para el despliegue productivo de los LLM, pero se ven limitados por las estrictas barreras y obligaciones profesionales existentes, como la confidencialidad abogado-cliente.

Los cuatro pasos que seguiría el sistema

Por todo ello, los autores proponen el aprovechamiento de agentes de IA supervisores del resultado de un chat de un LLM construido para responder preguntas regulatorias para un usuario humano.

En el mismo incluyen cuatro tipos de supervisión: 1) determinar si una pregunta que un humano hace al sistema de IA de chat está dentro del ámbito de ese sistema de IA concreto y, en caso contrario, enviar la pregunta y la respuesta producida por la IA a un abogado para su revisión; 2) determinar si una entrada es un ataque malicioso potencial y, en caso afirmativo, finalizar la interacción; 3) determinar si se introducen datos personales en el sistema y, en caso afirmativo, finalizar la interacción y, 4) que el sistema pueda etiquetar claramente cuándo un humano o una IA está produciendo contenidos.

En relación con el primer punto, Ma y Nay explican que un agente supervisor de IA aprovecha los LLM para determinar si una pregunta formulada por un humano entra dentro del ámbito de un sistema de IA por chat y, en caso negativo, envía la pregunta y la respuesta producida a un abogado humano para su revisión. Del mismo modo, si el agente supervisor de IA predice que la pregunta no entra en el ámbito de ese ámbito de conocimientos jurídicos, la pregunta se envía automáticamente para que la revise un humano.

En opinión de los autores del informea, este formato ilustra que el potencial de los agentes de IA supervisores no sólo es prometedor, sino que actualmente está infraexplorado. Sin embargo, consideran que la infraestructura técnica disponible ya es capaz de gestionar la supervisión automatizada de la IA, por lo que prevén una amplia gama de posiblidades en las que pueden ayudar a los profesionales del Derecho a garantizar su compromiso con el uso responsable de las herramientas de IA generativa.

Profundizando en el estudio del caso, los autores del informe aprecian claros puntos de referencia para los abogados, pues se identifican señales que indican con precisión cuándo pueden y deben intervenir los expertos humanos y cuándo pueden ceder el paso a las máquinas. Además, los cuatro ejemplos propuestos se ajustan a los deberes profesionales y éticos de los abogados, como son obligación de cumplir la norma en relación con la prevención de ataques maliciosos, o el deber de divulgación y comunicación de que se está usando una IA generativa.

Por último, los autores del informe consideran que dado que los colegios de abogados estatales siguen adoptando directrices sobre el uso de la IA generativa por parte de sus asociados, las futuras líneas de investigación en este campo implican colaborar con law.MIT.edu, como parte de la siguiente fase del Grupo de Trabajo del MIT sobre el Uso Responsable de la IA Generativa, para explorar cómo estos agentes de IA supervisores pueden desempeñar un papel en la verificación y garantía de las normas de conducta profesional de los colegios de abogados estatales.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll