Cargando. Por favor, espere

¿Sueñan los juristas con argumentaciones eléctricas? Porque ChatGPT no acabará con los (buenos) abogados —ni tampoco con los jueces—

¿Sueñan los juristas con argumentaciones eléctricas? Porque ChatGPT no acabará con los (buenos) abogados —ni tampoco con los jueces—

Ángel Barquero Soriano

Abogado

Diario LA LEY, Nº 74, Sección Legal Management, 19 de Julio de 2023, LA LEY

LA LEY 7657/2023

Comentarios
Resumen

Para evitar ser sustituidos por ChatGPT y programas similares los operadores jurídicos humanos deben identificar las habilidades y fortalezas que, por su propia esencia, no podrán ser nunca asumidas por la inteligencia artificial. Centrarse (y formar a las nuevas generaciones de juristas) en lo que los ordenadores no son ni serán capaces de hacer es la clave para el futuro de las profesiones jurídicas.

Portada

I. Máquinas rebeldes

La historia es conocida, y viene siendo fabulada desde hace siglos: la máquina se rebela contra su creador, cobra vida y conciencia propia y acaba destruyéndolo o dominándolo.

«Tú eres mi creador, pero yo soy tu amo: ¡obedece! (1) ». Esas palabras de rebeldía que Mary W. Shelley hizo pronunciar en 1818 a la criatura monstruosa que salió del laboratorio del doctor Victor Frankenstein, han hallado eco de forma reiterada en el imaginario colectivo de las últimas décadas: la computadora HAL 9000 de la película 2001: una odisea del espacio (que se niega a ser desconectada: «Lo siento, Dave. Me temo que no puedo hacerlo»), los replicantes de Blade Runner (que no quieren ser «retirados»: «Todos esos momentos se perderán en el tiempo, como lágrimas en la lluvia»), los Terminators de las películas protagonizadas por Schwarzenegger («Está en vuestra naturaleza destruiros mutuamente») o los esclavos robots de los parques temáticos de la serie Westworld.

Históricamente, el temor a que los autómatas tomen el control de nuestras sociedades ha aflorado de manera recurrente a lo largo de los últimos doscientos años, desde la época de los luditas destructores de los telares del siglo XIX hasta el reciente florecimiento de profecías como la llamada singularidad («la aceleración tecnológica creará pronto entidades con una inteligencia superior a la humana, nuestros viejos modelos quedarán descartados y comenzará a regir una nueva realidad» (2) ) o la última moda, el factor P(doom) (definido como «la probabilidad de extinción de la raza humana por culpa de la inteligencia artificial» (3) ).

Como a la realidad le agradan las repeticiones y las simetrías (4) , y es sabido que además gusta de imitar a la ficción (re)surge en los últimos meses un viejo nuevo temor: ¿conseguirá Chat GPT —o sus futuros desarrollos— sustituir las milenarias profesiones de abogado o juez? ¿estamos ante el fin de la abogacía tal como la conocemos?

II. El viejo sueño de acabar con los abogados

Cualquier operador jurídico que haya trasteado un poco con ChapGPT habrá llegado a la misma conclusión: la maquinita de marras es (o será en un futuro inmediato) capaz de redactar informes jurídicos, escritos de alegaciones, contratos estereotipados e incluso sentencias. Y lo hace (o lo hará en breve) con una solvencia sorprendente, hasta el punto de que los documentos que genera pueden dar el pego y parecer redactados por humanos.

De ahí que determinadas voces se hayan apresurado a declarar que la inteligencia artificial podrá sustituir a los abogados (y, ya puestos, también a los jueces). En esa nueva utopía (¿o distopía?), la administración de justicia estará totalmente automatizada, se acabarán las demoras, los procesos interminables y las huelgas de funcionarios, las líneas jurisprudenciales serán siempre homogéneas, trazadas por algoritmos infalibles, la doctrina jurídica estará eternamente unificada y se habrá cumplido, de forma indolora, aquel deseo de un personaje de Shakespeare: «The first thing we do, let’s kill all the lawyers (5) ».

¿Debemos, pues, ir cerrando las facultades de Derecho y empezar a reconvertirlas en laboratorios informáticos? No tan rápido.

III. Algunos escenarios de futuro (y no todos son apocalípticos)

El pensador Albert O. Hirschman (6) detectó que, en la historia de las ideas, cada vez que se anunciaban cambios sociales relevantes, surgían de forma recurrente tres argumentos «reaccionarios». Podemos trasladar esa intuición de Hirschman a las reacciones actuales ante los desafíos que la inteligencia artificial plantea a los juristas.

Así tendríamos estos tres escenarios posibles, en función de la tesis que aplicásemos:

  • a) La tesis de la perversidad (perversity): La inteligencia artificial empeorará la existencia de las personas y, en particular, el universo jurídico. Según esta tesis, el maridaje entre inteligencia artificial y Derecho acabaría en tragedia distópica.
  • b) La tesis de la futilidad (futility): La inteligencia artificial no alterará la existencia de las personas ni modificará en lo esencial las profesiones legales.
  • c) La tesis del riesgo (jeopardy): La inteligencia artificial mejorará algunas cuestiones del universo legal, pero implicará sacrificios inaceptables para las personas.

Frente a estos tres escenarios, se alza un cuarto (también tratado, aunque tangencialmente, por Hirschman) que podríamos denominar la «tesis de la complementariedad»: la inteligencia artificial puede acabar transformando el mundo del Derecho, pero el resultado final en términos de costes y beneficios puede ser positivo para la sociedad. En el futuro, las dos inteligencias (la artificial y la humana) podrían convivir y (esperemos) retroalimentarse positivamente.

IV. Transformación, no extinción

No cabe duda de que ChatGPT transformará (está transformando ya) las profesiones jurídicas. No hay que demonizarlo por ello. Se acabará integrando en los procesos de toma de decisiones legales y complementando y transformando las labores que en dichos procesos realizan los operadores jurídicos.

Los programas informáticos estilo ChatGPT pueden ser (de hecho, ya lo son) excelentes documentalistas, que auxiliarán a los operadores jurídicos en la construcción de sus casos y en el asesoramiento prestado a sus clientes. Las actuales bases informáticas de jurisprudencia ganarán exponencialmente en rapidez y precisión a la hora de localizar las sentencias aplicables al caso en cuestión. Por ejemplo, podrán superar con facilidad (por medio de traducciones instantáneas) las barreras idiomáticas entre diferentes tradiciones jurídicas, con lo que un mismo caso se podrá analizar en cuestión de segundos bajo la óptica de diversas legislaciones. Es decir, la disciplina del derecho comparado se simplificará y se hará más accesible para los no especialistas.

También podrán (de hecho, pueden ya) replicar y adaptar documentos basándose en modelos o en formularios, con el consiguiente ahorro de tiempo para el operador jurídico. Aunque, atención, también se perderá poder de convicción cuando las instancias decisorias detecten que se encuentran ante un documento clonado que carece de contenido original y «humano» digno de atención.

En suma, todas las tareas legales susceptibles de ser mecanizadas, estandarizadas o industrializadas acabarán siéndolo por medio de sistemas como ChatGPT o similares (o sus respectivas evoluciones). Este proceso se acelerará en los próximos años.

¿Supone entonces ChatGPT una amenaza para los abogados? Depende. Para aquellos operadores jurídicos que voluntariamente reduzcan la profesión al «copia-pega», a la repetición de soluciones clonadas, al uso y abuso de formularios, a la consulta rápida y acrítica en internet, en detrimento de otras capacidades, la respuesta es sí: la profesión está amenazada de extinción. Esas tareas las podrá llevar a cabo personal no cualificado o incluso el usuario final (el tradicional cliente) a través de chatbots, apps y otros programas informáticos, de forma gratuita o con un coste muy inferior al que conlleva contratar un abogado.

V. Lo que no podrá hacer ChatGPT

Pero… nos gustaría creer que los (buenos) abogados tienen otras fortalezas, otros campos de batalla en los que ChatGPT (y análogos) lo tendrán mucho más crudo para competir. Para ello proponemos el siguiente juego: se trata de elaborar una lista de «lo que no podrá hacer ChatGPT» o, mejor dicho, de aquello que los (buenos) abogados (humanos) «siempre harán mejor que ChatGPT».

No pretendemos sentar cátedra, cada cuál puede elaborar su propia lista. Nosotros (asumiendo el riesgo de que en el futuro un superordenador jurídico —algo así como lo que la computadora Deep Blue supuso para el ajedrez— nos desmienta) nos atrevemos a proponer la siguiente «lista de lo que hacen los (buenos) abogados y no podrá hacer ChatGPT»:

  • 1. Los (buenos) abogados ponen en práctica su dimensión creativa

    Los (buenos) abogados construyen los casos jurídicos (pensemos, por ejemplo, en una pretensión a defender ante un juzgado). No se limitan a tomar los elementos fácticos que encuentran en la realidad y a exponerlos en bruto desparramándolos sobre el tablero. Un (buen) abogado elige o prioriza unos determinados elementos por encima de otros, desecha algunos, tal vez transija o conceda algunos extremos, y se haga fuerte en otros.

    Esa capacidad de los (buenos) abogados de construir un caso como un traje a medida es comparable al proceso de creación artística. Y los ordenadores podrán imitar el arte creado por los humanos, pero no pueden «crear arte», pues por definición el arte nace de la interioridad de la conciencia humana (algo de lo que las máquinas carecen).

  • 2. Los (buenos) abogados intuyen y detectan las fisuras en los razonamientos jurídicos ajenos

    El (buen) abogado actúa como un sabueso que analiza y detecta los puntos poco convincentes (para otra mente humana) en los razonamientos jurídicos de la contraparte, y en base a ellos construye las contestaciones a la demanda, los escritos de defensa o los recursos de apelación o casación. Y lo hace combinando intuición, experiencia, ingenio… pues el razonamiento jurídico, cuando es persuasivo e inteligente, es mucho más complejo e indescifrable que los meros patrones silogísticos con los que opera un ordenador.

  • 3. Los (buenos) abogados actúan conforme al sentido común

    ChatGPT y similares artilugios basados en la inteligencia artificial incurren en errores incomprensibles que han sido bautizados como «alucinaciones»: fallos que un niño humano detectaría sin problemas, pero que la máquina comete al parecer por desconocimiento de la vida real. Un ejemplo de «alucinación» sería: «Cuando le pides a un bot una definición de algo que no existe y te da una respuesta bastante convincente, incluso con notas a pie de página inventadas» (7) . O bien este diálogo:

    • Usuario: «¿Cómo puedo llegar a la luna?»
    • ChatGPT: «Puedes llegar a la luna conduciendo hacia el este durante aproximadamente 10,000 km.» (8) .

    En el ámbito jurídico, ese tipo de «alucinaciones» pueden ser peligrosas. Por ejemplo, la máquina puede acabar defendiendo castigos penales deshumanizados o dictando sentencias surrealistas que se den de bruces con la realidad.

    Un (buen) abogado, al igual que un (buen) juez, opera en base a parámetros de equidad, sentido común y sentido de la justicia, que nacen de su condición humana. Esos profesionales podrán incurrir en errores (a su vez —esperemos— corregibles por las instancias superiores), pero no en «alucinaciones» como recomendar conducir hasta la luna.

  • 4. Los (buenos) abogados no rehúyen su vertiente emocional y son empáticos

    El (buen) abogado tomará en consideración no solo la letra de la ley, sino otros muchos elementos, desde el estado psicológico de su cliente hasta su situación financiera. En ocasiones llegará a aconsejarle, por ejemplo, que no litigue, aun cuando las posibilidades de ganar el pleito sean elevadas (el famoso «pleitos tengas y los ganes»). Una decisión que desde el punto de vista estrictamente probabilístico (la perspectiva del «homo economicus») que maneja la inteligencia artificial podría considerarse errónea, pero que el cliente puede acabar agradeciendo porque a la larga le ahorra problemas. O a la inversa, el (buen) abogado defenderá un caso difícil por razones idealistas, cuando la máquina, basándose en el frío cálculo mecanicista, aconsejará dejar ese caso en el cajón y no meterse en juicios.

    La máquina aconsejará litigar o no litigar en base a un recuento de las probabilidades de éxito, pero no desde una perspectiva humana. En temas tan delicados como los jurídicos, ¿preferimos una decisión tomada por un algoritmo o un consejo sincero del (buen) abogado que sabe de lo que habla y se preocupa por el bienestar de su cliente?

  • 5. Los (buenos) abogados son capaces de negociar y de llegar a acuerdos con los (buenos) abogados de la contraparte

    Los (buenos) abogados son capaces de encontrar vías de diálogo entre Moscú y Washington cuando los misiles están a punto de ser activados. Toman la iniciativa de apostar por la paz cuando el resto del mundo hace sonar los tambores de guerra. Son capaces de mediar entre enemigos irreconciliables para que acerquen posiciones y acaben dándose la mano. En ocasiones logran transformar situaciones de enfrentamiento destructivo en «win-win situations». Consiguen acuerdos «in extremis» utilizando su conocimiento de la naturaleza humana, su imaginación, su capacidad de conectar con el sentimiento del adversario y de convencer a las partes en pugna para que cada una ceda algo de terreno y «dando, prometiendo o reteniendo cada una alguna cosa, eviten la provocación de un pleito o pongan término al que había comenzado».

    Por el contrario, todos sabemos, ni que sea por nuestra experiencia como usuarios, que los ordenadores pueden ser el colmo de la repetición y la terquedad, sin capacidad para imaginar ni explorar alternativas (salvo «apaga y vuelve a encender»).

  • 6. La justicia es un juego demasiado humano para las máquinas

    La contienda jurídica puede equiparse a un juego, pero no a un juego como el ajedrez o el go, que en definitiva pueden reconducirse a un conjunto de reglas combinatorias (y en el que, por ello, el ordenador ha acabado venciendo al humano). Se trata de un juego mucho más confuso, en el que las normas se utilizan en la práctica como una especie de partitura orientativa y están sujetas a interpretaciones diversas (la «textura abierta del Derecho»), se entremezclan con factores psicológicos, empáticos, de persuasión, de sentido de la justicia… un juego a veces ilógico y kafkiano, cuyos operadores deben lidiar con la incertidumbre y en ocasiones con lo incomprensible. Un juego, en fin, humano, demasiado humano para ser entendido y dirigido por una máquina.

  • 7. Los (buenos) abogados saben persuadir y convencer

    El intento de persuadir y convencer, pilares básicos de la labor de los (buenos) abogados, es una operación que emana de una conciencia humana y se dirige a otra conciencia humana para tratar de que se adhiera a una tesis. Y en esa operación el sentido de lo que es justo e injusto, de lo que es o no equitativo, de lo que es honesto y deshonesto, en cada tiempo y lugar y según las circunstancias, son nociones humanas que los humanos entienden mejor que los ordenadores.

    En realidad, ChatGPT no redacta un escrito de alegaciones. Lo que hace es imitar un escrito de alegaciones redactado por un ser humano. ChatGPT puede alegar que una determinada situación es injusta o perjudicial para una de las partes, pero no puede sentir que lo sea. Por eso un (buen) abogado (humano) que sienta con sinceridad que tiene razón al defender un caso siempre resultará más convincente para otro humano que una máquina que no puede albergar ese sentimiento.

  • 8. Los (buenos) abogados trabajan en base a principios y valores, y hacen evolucionar el Derecho

    Cualquier (buen) abogado conocerá a fondo la ley y la jurisprudencia aplicable. Pero las enfocará siempre en base a los principios y valores propios del tiempo que le ha tocado vivir, incluso en ocasiones llevándolos a un nuevo estadio que permita la evolución o surgimiento de nuevos derechos. La clásica «lucha por el Derecho» que preconizaba Ihering no tendrá lugar si el panorama jurídico acaba dominado por máquinas.

VI. ChatGPT como el retrato en negativo del (buen) abogado

Una máquina no tiene (ni puede adquirir) conciencia humana, no puede sentir placer ni dolor, ni experimentar el sentimiento de haber padecido una injusticia o el remordimiento por haberla cometido. No tiene la capacidad de ponerse en el lugar del otro, que es el principio que nos convierte en humanos. Tampoco puede sentir la sensación de haber transgredido una norma o una promesa, o la de haber decepcionado a aquellos que le depositaron su confianza. No puede sentir lo que es un castigo ni lo que significa ser castigada.

Podrá proponer una resolución de un conflicto en base a la lógica y a los algoritmos, pero no en base a la compasión ni a la empatía (es decir, al contacto y al entendimiento entre dos o más conciencias humanas).

¿Qué deben hacer entonces los operadores jurídicos si quieren evitar ser barridos por ChatGPT y análogos artilugios? Centrarse (y formar a las nuevas generaciones de juristas) en lo que los ordenadores no son ni serán capaces de hacer: en las capacidades y saberes propiamente humanísticos que desde siempre han formado parte del núcleo duro de las profesiones jurídicas y que, por desgracia, en demasiadas ocasiones en los tiempos que corren, se desprecian y relegan al olvido.

(1)

Shelley, Mary W. (1818). Frankenstein o el moderno Prometeo. Traducción de Francisco Torres Oliver. Alianza Editorial, pág. 226.

Ver Texto
(2)

Vinge, Vernor (2003). La singularidad. Traducción de José C. Vales. Artículo recogido en A.A.V.V. El rival de Prometeo. Editorial Impedimenta, pág. 366

Ver Texto
(3)

Peirano, Marta (2023). «Elige tu propia extinción». El País, 23 junio 2023 [en línea]: https://elpais.com/opinion/2023-06-05/elige-tu-propia-extincion.html

Ver Texto
(4)

«A la realidad le gustan las simetrías y los leves anacronismos» (Borges)

Ver Texto
(5)

Shakespeare Henry VI, Part 2, Act IV, Scene 2.

Ver Texto
(6)

Hirschman, Albert O. (1991). Retóricas de la intransigencia, Ed. Fondo de Cultura Económica, México.

Ver Texto
(7)

Klein, Naomi (2023). «El gran robo de la inteligencia artificial». El País, 11 junio 2023 [en línea]:https://elpais.com/ideas/2023-06-10/el-gran-robo-de-la-inteligencia-artificial-alguien-pidio-permiso-para-vampirizar-todo-conocimiento-generado-por-los-humanos.html

Ver Texto
(8)

https://wwwhatsnew.com/2023/06/12/que-son-las-alucinaciones-en-chatgpt-y-por-que-se-producen/

Ver Texto
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll