Cargando. Por favor, espere

II Congreso internacional sobre Derecho e Inteligencia Artificial

  • 16-4-2024 | LA LEY
  • Los pasados días 11 y 12 de abril tuvo lugar en Bilbao este Congreso, organizado por la Facultad de Derecho de la Universidad de Deusto y el despacho Uría Menéndez, con la colaboración de Marsh, bajo el título “Avanzando en la regulación de la IA”, con la participación de expertos nacionales y extranjeros
Portada

Carlos B Fernández. Si la primera edición de este congreso, celebrada hace justo un año, fue ya un rotundo éxito, cabe decir que esta segunda, no lo ha sido menos.

La razón ha sido evidente: la conjunción de la inminencia de la publicación del Reglamento de Inteligencia Artificial (IA), con su indudable relevancia, y la reunión de un notable grupo de expertos en la materia. El resultado fue que durante dos intensas jornadas, en parte condicionadas por las celebraciones deportivas locales, tuvimos oportunidad de abordar los aspectos más significativos y jurídicamente problemáticos de la relación entre la IA y el Derecho.

Tras la inauguración de la sesión por los directores del congreso, Inmaculada Herbosa Martínez, profesora de Derecho Civil de la Universidad de Deusto y David Fernández de Retana Gorostizagoiza, socio de Uría Menéndez y la decana de la propia facultad, Gema Tomás Martínez.

Conferencia Inaugural - ¿Quién decide en la era de la IA?

La conferencia inaugural del congreso corrió a cargo de Stathis Banakas, Profesor de Derecho Comparado de la Escuela de Derecho de la Universidad de East Anglia (Norwich, Reino Unido), bajo el sugestivo título “Who decides who decides? Algorithm or human? Right and Wrong in the age of Artificial Intelligence”.

El profesor Banakas se refirió, de entrada, a las dos grandes cuestiones que plantea el uso de algoritmos en relación con la actividad humana: la regulación de los algoritmos y el papel de los algoritmos como reguladores de esa actividad.

A continuación, Banakas ofreció un catálogo de los problemas que se suscitan en torno a esta cuestión. El principal ¿cómo instruir a una máquina en los principios jurídicos que son fundamento del sistema? ¿Cómo programas instituciones jurídicas como la buena fe y la equidad para hacerlas comprensibles por la máquina? ¿Cómo hacer compatible el carácter binario de los algoritmos, que solo ofrecen respuesta en modo “Sí / No”), con la toma de decisiones que afectan a las personas y el derecho a equivocarse, originario de la ética kantiana, tan vinculado al fundamento de la libertad humana? Los algoritmos se basan en la experiencia que se deduce de los datos, pero una característica de los seres humanos es la libre determinación y el manejo de intereses complejos.

Además, desde una perspectiva social, los algoritmos no pueden distinguir fácilmente entre hechos y valores y, cómo subrayó el ponente, la vida es muy complicada para programarla en todas sus posibles consecuencias. Y ello, trasladado a una visión algorítimica de la vida, introduce conceptos como el de la justicia negociada, que se ve reflejada en el relevante papel que juegan los lobbys en los procesos legislativos o decisionales, como se pudo ver en el caso del Brexit.

La justicia, destacó Banakas, es una cuestión emocional (an emotional bussiness), lo que pone de relieve a su vez aspectos como la elegancia de los algoritmos y de la propia justicia, la importancia de los principios y de la lógica formal, todo ello sin perder de vista la noción de “penumbra legal” (law’s penumbra), que se traduce, nuevamente, en la evidencia que los algoritmos no pueden armonizar la infinita variedad de circunstancias de la realidad, por lo que limitan el alcance del razonamiento humano.

Por todo ello, concluyó este ponente, se pone cada más más de manifiesto la importancia de mantener siempre un principio de humanidad en la toma de decisiones afecte a los seres humanos. De forma que, frente a la idea de que la mejor justicia es aquella que elimina el factor humano de la toma de decisiones, se alce la idea de que la opción debe ser siempre en favor del ser humano.

El marco general de la IA

La siguiente mesa abordó el actual marco jurídico en el que se presenta la IA.

Abrió la exposición Mateja Durovic, profesor de Derecho y Tecnología del King’s College de Londres, quien, en su ponencia “Exporting of the EU AI Regulation abroad”, explicó que la revolución tecnológica que estamos viviendo se caracteriza por su enorme velocidad de desarrollo, por lo que resulta fundamental ser capaz de adaptarse a la misma. Todo ello en un complejo entorno geopolítico que condiciona la elaboración de nuevos marcos regulatorios que, pese a todo, se hacen cada vez más necesarios y para los que la Unión Europea se ha convertido en una referencia imprescindible.

A continuación, Carlos Fernández Hernández, Redactor Jefe del Diario LA LEY Ciberderecho abordó en su ponencia “Datos, IA y Derecho: una relación necesaria”, cómo la revolución normativa que, en el ámbito digital, diseñó la Unión Europea desde, constituye una compleja combinación de regulación sobre los datos, los algoritmos y los entregables, todos ellos bajo la permanente influencia de los valores y principios europeos.

En este marco, no se puede olvidar, por una parte, que los datos son objeto de una extensa regulación en la UE que, comenzando por el Reglamento General de Protección de Datos personales (LA LEY 6637/2016) de 2016 (y su fundamental regulación, no solo del tratamiento de esos datos, sino también de las decisiones individuales automatizadas que tengan efecto sobre las personas), pasa por la Directiva sobre datos abiertos de 2019 y, a la espera del próximo Reglamento sobre datos sanitarios, tiene como referencias los recientes reglamentos sobre el dato (Data Act) y sobre gobernanza del dato (Data Governance Act).

Por otra parte, el inminente Reglamento de IA, dedica especial atención a la importancia de los datos para el entrenamiento de los sistemas de IA, estableciendo rigurosos requisitos en relación con la obligación de aplicar prácticas adecuadas de gobernanza y gestión de los datos (apropiadas para la finalidad del sistema), incluyendo unos criterios de calidad que deben cumplir los datos de entrenamiento, validación y prueba.

Cerró esta mesa Josu Andoni Eguíluz Castañeira, Legal counsel de Adevinta y Profesor de Derecho Digital de ESADE, quien abordó los aspectos esenciales del Reglamento IA, una tarea compleja en el breve tiempo del que dispuso, pero que solventó sobradamente gracias a su profundo conocimiento del tema. En su intervención, Eguiluz puso explicar las características más rlevantes de esta norma, como son el propio concepto de IA; el concepto de modelo y de sistema de IA; los modelos de propósito general; los sistemas de IA prohibidos, los sistemas de IA de alto riesgo y .

La IA y su impacto en sectores relevantes

La segunda mesa de la mañana se dedicó a la IA y su incidencia en sectores relevantes.

En ella, Rafael Verdera Server, Catedrático de Derecho Civil de la Universidad de Valencia, explicó el “Impacto de la IA en la enseñanza del Derecho”, estructurando su ponencia en cinco puntos: la IA en la enseñanza del Derecho; la IA y la aplicación del Derecho; la IA y la concepción del Derecho; los riesgos de la IA y cómo sobrevivir a la IA.

En opinión de Verdera, ante la llegada de la IA, se alza una actitud típica del jurista, que va de una fase de negación a otra de aceptación y restablecimiento, pasando previamente por otras de confusión, rabia e ira, dolor y culpa, tristeza ante la evidencia y, finalmente, aceptación.

Lo fundamental, añadió, es tener en cuenta que la IA va a ser una parte indispensable del trabajo jurídico. Y, por ello, la enseñanza del Derecho, que actualmente se basa en una exposición de contenidos que el alumno debe repetir, debe cambiar. Y debe hacerlo no "contra la IA", sino "con la IA", integrando esta tecnología en el trabajo docente. Ya que, inevitablemente, los estudiantes van a usarla, lo procedente es enseñarles a usarla aprovechando sus ventajas e impulsando a la vez un conocimiento cabal que les lleve a trabajar verificando siempre las respuestas que les facilite esta tecnología.

Ello debe traducirse en una enseñanza de los principios, basada en instituciones y en casos prácticos.

La situación actual del sector es que los abogados de empresa están expectantes ante el impacto de esta tecnología, mientras que los pequeños despachos aun se encuentran en la fase de negación de la posibilidad de que la IA vaya a afectarles. Por ello, mientras los grandes despachos se preguntan cómo formar a sus junior, es necesario que el CGAE impulse un acercamiento de estas pequeñas firmas a la tecnología.

Finalmente, Verdera subrayó que la llegada y efectos de la IA ponen de manifiesto que hay virtudes humanas que no van a ser sustituibles por las máquinas. Y ello refuerza la importancia de una formación adecuada en materias como la oratoria, la capacidad de negociación y mediación, la empatía con el cliente y una visión disruptiva de los problemas.

A continuación, María Burzaco Samper, Profesora agregada de Derecho Administrativo de la Universidad Pontificia de Comillas (ICADE), destacó las principales implicaciones de la “IA y cadena alimentaria: más allá de la logística”.

Esta ponente comenzó poniendo de relieve la importancia del sector agroalimentario en la economía nacional. Un sector que actúa como tractor de otros, gracias a la fuerza que le proporcionan las más de 900.000 explotaciones y 31.000 empresas con las que cuenta y que dan empleo a más de dos millones y medio de trabajadores. Sin embargo, este sector sufre también las amenazas del cambio climático, una mano de obra envejecida y poco cualificadda y una generalmente inadecuada gestión de recursos.

En este escenario, la IA tiene ya importancia en diversas fases de la cadena alimentaria, como son el almacenamiento, la distribución, el consumo y el postconsumo. Sus principales aportaciones se encuentran en el área de la sostenibilidad, como se refleja en el Pacto Verde Europeo y en el diseño de la Política Agraria Común para el período 2023-2027 y, en nuestro país, en la Estrategia de Digitalización del Sector Agroalimentario y Forestal.

En concreto, esta estrategia, que pretende incentivar el desarrollo del sector agrícola nacional, por medio de prácticas como la analítica descriptiva, diagnóstica y predictiva de los datos; los gemelos digitales y el índice de peligrosidad del territorio (IPT-5), se beneficia de un potente actividad de investigación agraria que favorece una propensión al cambio en el sector, porque aprecia las ventajas competitivas que le aporta.

Con todo, concluyó María Burzaco, no deja de resultar llamativo el hecho de que la llegada de la IA al sector agrícola está favoreciendo la vuelta a prácticas antiguas.

Cerró esta mesa la intervención del Profesor titular de Derecho Civil de la Universidad de Deusto, Óscar Monje Balmaseda, quien se refirió a la “IA en el ámbito sanitario”.

En este sector, la IA ha realizado grandes avances, en particular en actividades como la prevención, el diagnóstico y el tratamiento de enfermedades. Unas tareas, en particular el tratamiento, en el que la tecnología ya supera a la inteligencia humana.

Otras áreas en las que la IA resulta de utilidad son la ayuda a la toma de decisiones y la formación de los profesionales. Sin olvidar el desarrollo de la robótica, las capsulas inteligentes y las prótesis biónicas.

Monje señaló también que el principal problema a resolver en relación con la aplicación de la IA a este sector, es, vista la creciente autonomía de las máquinas que se utilizan en el mismo, el de sentar las bases para la imputación de daños en caso de que estos se produzcan, ya sean en la fase de diagnóstico o en la de tratamiento.

Ello supone un proceso de identificación de las causas, de prueba de la relación de causalidad, de imputabilidad del daño y de resarcimiento.

Los actuales proyectos regulatorios sobre la materia, en particular la propuesta de Directiva de diciembre de 2022, parten de la constatación de que un programa informático puede ser un producto defectuoso y de que, a falta de prueba en contrario, se presumen que el producto que causa un daño es defectuoso, al igual que una presunción de culpa del operario.

Sin embargo, Monje considera que debería existir una norma específica en el ámbito sanitario, que atribuyera responsabilidad al operario de la máquina, al igual que ocurre en materia de responsabilidad por daños causados por la circulación de vehículos de motos, con algunas salvedades y sin que cupiera la exoneración según el estado de desarrollo de la técnica, además de un registro de robots y la obligatoriedad de disponer de un seguro de responsabilidad civil.

Hacia un Derecho Digital del Trabajo: Algoritmos e Inteligencia Artificial

La conferencia magistral del congreso corrió a cargo de Jesús R. Mercader Uguina, Catedrático de Derecho Laboral de la Universidad Carlos III de Madrid y Counsel del Área de Laboral de Uría Menéndez.

El profesor Mercader comenzó destacando que, para los laboralistas, la IA es un problema más que sumar a otros que ya se ciernen sobre el Derecho del trabajo, como la robotización y que caracterizan al nuevo ecosistema productivo.

Un ecosistema en el que se aprecia un gap o vacío regulatorio, producido por la incapacidad del marco regulatorio para adaptarse a la velocidad del cambio tecnológico.

Estamos, añadió, ante el nuevo paradigma de la empresa algorítmica, desmaterializada, y cuyo bien más valioso son los algoritmos que diseña, cuya transmisión, a su vez, puede constituir una auténtica transmisión de empresa, como ya se está comprobando en la práctica.

Esta nueva forma empresarial plantea, a su vez, para el trabajador, la aparición de nuevas formas de trabajo y empleo, que serán objeto de regulación, en varios de sus aspectos, por la futura Directiva de trabajo en plataformas digitales.

A su vez, surgen nuevos poderes de dirección y control de un empresario que puede resultar invisible para el trabajador. Estos poderes afectan a todas las áreas de actividad de la empresa y encuentran su contrapartida en los riesgos que plantean. Así, la aplicación de algoritmos en labores de selección de personal, plantea riesgos de discriminación. La capacidad de ejercer la dirección por medio de algoritmos, plantea los problemas ya conocidos del trabajo en plataformas. El uso de algorimos para el ejercicio de la facultad de control, resulta en la utilización de elementos de biometría, que pueden resultar muy invasivos. Y la facultad de decidir la extinción de la relación laboral en función de un algoritmo, pone sobre la mesa el peligro de las conocidas como indemnizaciones borrosas.

Por su parte, el futuro Reglamento de IA presenta una terminología propia y nuevos modelos de aproximación desde el riesgo, un nuevo sistema de garantias y de atribución de responsabilidad.

Destaca igualmente la prohibición del reconocimiento de emociones en el ámbito laboral, salvo por razones de seguridad, y la inclusión del uso de algoritmos inteligentes para la gestión y el acceso al empleo como sistemas de IA de alto riesgo.

Todo ello subraya la importancia del humano al mando, como elemento fundamental de garantía.

Por otra parte, la IA también tiene un impacto en la negociación colectiva, aunque la obligación de información a los representantes de los trabajadores introducida por la reforma del art. 64.2 d) del ET introduce un principio de gobernanza colectiva de la IA, tal como ya se contiene en el Convenio de Banca.

En paralelo, aparece la noción de administración social algorítmica, que permite, entre otras cosas, el control del fraude por parte de la Tesorería Generarl de la Seguridad Social; el control de las prestaciones por el INSS y el perfilado estadístico del desempleo.

Mercader concluyó preguntándose si este conjunto de circunstancias plantea la posibilidad de que se pueda determinar una cuota de empleo humano en las empresas. Una cuestión frente a la que, señaló, se alzan diversas tésis, pero siempre teniendo en cuenta que la cantidad de trabajo disponible no es una cifra fija, sino que depende de la productividad. Por ello, algunas voces apuntan a la conveniencia de una constitución social destinada a repartir riqueza.

Riesgos asociados al uso de inteligencia artificial por la empresa. Retos y oportunidades

Moderada por Paulina Vélez, Cyber & Technology Practice Leader de Marsh España, tuvo lugar a continuación la mesa patrocinada por Marsh, colaborador del congreso, dedicada a los riesgos asociados al uso de la IA en la empresa.

En ella intervinieron José Carlos Jiménez, Branch Manager & Head of Cyber Iberia de Arch Insurance; Patricia Leandro, Counsel del Área de Derecho Penal de Uría Menéndez; Javier Basterreche, Director de Seguros Corporativos de Indra Sistemas y Nelia Argaz, Cyber Risk Co-Practice Leader, Continental Europe de Marsh Advisory.

Desde una perspectiva netamente empresarial, esta mesa permitió conocer cómo el uso de la IA plantea riesgos para la mayor parte de los derechos fundamentales implicados, lo que implica la necesidad de aplicar el test de proporcionalidad para cumplir adecuadamente el futuro Reglamento, en particular frente al peligro que representa el riesgo de autonomía de las máquinas en la toma de decisiones.

Frente a las ventajas que la IA aporta a las empresas, ello pone nuevamente de relieve la importancia de la supervisión humana.

Los intervinientes pusieron igualmente de relieve la utilidad de la IA para enfrentar las amenazas surgidas para la ciberseguridad, en un entorno en el que se han multiplicado las vulnerabilidades y un correlativo incremento de la incertidumbre. Los riesgos son ahora más complejos y se complican por el hecho de que hoy los sistemas priman la velocidad frente a la calidad. De hecho, se apuntó que hay problemas no superados para proteger la IA.

Segunda jornada

Inteligencia artificial, contratatación y propiedad intelectual

La segunda jornada del congreso comenzó con una mesa dedicada a la implicaciones entre la IA, la contratación y la propiedad intelectual.

Abrió el turno Donato Maria Matera, Investigador postdoctoral en la Universidad de Brescia y Profesor ayudante doctor de LUM Giuseppe Degennaro, de Bari (Italia), planteando la relación entre “Algoritmos, contratación y cláusulas generales”.

Como explicó, el debate se centra en el papel que juega la IA en la interpretación o aplicación de las cláusulas generales, en particular, si puede contribuir a entenderlas.

Para profundizar en el tema, añadió que las cláusulas generales son palabras o sintagmas evaluativos, de significado indeterminado. A su vez, un término evaluativo permite elegir el posible significado de una palabra en función de su contexto de uso, cuando la palabra implica una valoración, como bueno o malo.

Sin embargo, las cláusulas contractuales no suelen contener términos no evaluativos. En la práctica ello se traduce en que en ningún caso un algoritmo podría realizar una interpretación evaluativa de forma autónoma. Técnicamente, porque para un algoritmo es difícil interpretarlas y políticamente porque atribuir un significado a una cláusula general implica valorar si esa cláusula (que se refiere a un comportamiento humano), es bueno o malo, y además por un algoritmo cuyos fundamentos no se conocen.

Concluyó Matera que la doctrina italiana considera que un algoritmo sí puede realizar esa interpretación, pero este experto considera que esa tarea no es muy difícil, porque en el lenguaje humano una simple coma o una palabra pueden alterar el significado. Además, esta interpretación solo se basaría en el criterio algorítmico más frecuente, lo que podría limitar la innovación. Finalmente, añadió, la previsibilidad puede verse comprometida en función del criterio lógico seguido para establecer ese criterio, lo cual no es posible en el caso en caso de que se utilicen redes neuronales, que permiten predecir el resultado, pero no el proceso lógico que llevado hasta él.

A continuación se abordó el tema de la “Infracción de propiedad intelectual por herramientas de IA, con una reseña de los casos más recientes”, por Borja Sainz de Aja, socio del Área de Propiedad Intelectual e Industrial de Uría Menéndez.

La IA, explicó, requiere del uso de obras cuya propiedad intelectual pertenece a terceros. Por ello, la copia es la infracción típica de la IA, pues sin la reproducción de una obra preexistente la IA no puede funcionar. Esta evidencia se hace particularmente visible en el caso de los grandes modelos de lenguaje (o LLM, por su abreviatura en inglés), que utilizan grandes volúmenes de datos tanto en el preproceso de datos, como en su entrenamiento y en la fase de fine tuning. Una circunstancia que pone en juego intereses para la propia industria de la IA (con efectos sobre su dependencia de los datos, la seguridad jurídica y los costes); los creadores de contenido y la propia sociedad, ante la duda de si se puede limitar el desarrollo tecnológico y, a la vez, si nos podemos permitir una industria de contenidos débiles.

En cuanto a las resoluciones jurisprudenciales que ya han abordado estos problemas, Sainz de Aja mencionó, en el ámbito norteamericano, los casos New York Times vs OpenAI y Microsoft y The intercept, Raw Story & AlertNet vs OpenAI. En ellos se impugnan los datos de entrada y el resultado de su tratamiento, porque no se cita el origen del contenido y se reproducen parcialmente contenidos protegidos, sin citar su origen. En ambos casos, los demandados han invocado la teoría del Fair Use o uso inócuo, conforme al §107 de la Ley de Propiedad Intelectual norteamericana, que requiere para su apreciación la ausencia de ánimo de lucro, la consideración de la naturaleza objeto de copia y de la cantidad de obra original reproducida y el impacto del uso en el mercado de la obra original. Dado que los casos están todavía sub iudice, no se conoce su final, pero Sainz de Aja recordó el precedente del caso Google Books, en el que el tribunal, ante un alegato similar, no apreció la concurrencia de un uso transformativo, consideró que la cantidad de obra utlizada no era sustancial y, finalmente, que la obra creada no es sustitutiva de la obra original, por lo que no afecta a su mercado o posible venta.

En el ámbito nacional, el ponente citó la sentencia de la Sala Primera del Tribunal Supremo de 3 de abril de 2012 (Rec. 2037/2008) que, en su opinión, trastocó nuestro sistema de propiedad intelectual al interpretar el art. 40 de la LPI y su concepto de uso inocuo

Seguidamente Francesco Ricci, Profesor ordinario de Derecho Privado. Universidad LUM Giuseppe Degennaro, planteó el tema de la “Contratación algorítmica y voluntad”.

Comenzó destacando que los juristas tienen dificultad para interpretar los términos "querer" y "decidir". Y dado que el silogismo jurídico es deductivo, ya que se refiere a una acto de voluntad, se preguntó si puede intervenir un tercero distinto del contratista (como puede ser el programador), en la formación de voluntad que implica un contrato, de un modo diferente a los anteriores.

En su opinión, en los smart contracts (que no considera que sean verdaderos contratos, porque no reflejan una voluntad de las partes, sino que se limitan a ejecutar su voluntad), se sobrevalora la relevancia de la intervención de la IA, en primer lugar desde la consideración de qué sea un contrato, ya que la voluntad de contratar es relevante para la consideración de la existencia del contrato. La voluntad que implica la voluntad de contratar significa la expresión de la autonomía privada. Y aunque la máquina no puede por sí misma expresar una voluntad propia destinada a sustituir a la humana, sí que puede procesar el contenido de una declaración de voluntad y ejecutar lo acordado por las partes..

Para interpretar esa declaración de voluntad, el algoritmo puede valorar la representación, la determinación del objeto del contrato, el papel del representante y el valor de un documento firmado en blanco.

Cerró esta mesa Anna Bettoni, Profesora ayudante de Derecho Civil de la Universidad de Tuscia (Italia), abordando la relación entre la “Inteligencia Artificial y creatividad de las obras”.

En su opinión, el Reglamento de IA no presta especial atención a los derechos de autor, porque se centra en la noción de riesgo y en el control de los usos más peligrosos para los derechos personales, entre los que no se incluyen los de autor. Así, los artículos 51 y ss introducen una presunción de peligrosidad de la que se derivan oblligaciones y medidas preventivas de los proveedores. Por su parte, los sistemas de IA de propósito general introducen interrogantes sobre la normativa tradicional, en tanto que el considerando 105 introduce una autorización previa del titular, salvo limitación legal.

La cuestión de cómo se protegen las obras generadas por LLM se resuelve considerando que la obra no es el objeto de la protección del derecho de autor, sino el vehículo por el que se expresa la creatividad del autor, cuyo proceso hasta hacerlo perceptible en el exterior es lo que se percibe.

El arte algorítmico presenta similitudes con el arte contemporáneo, por la naturaleza de su concepción y por la materialización de la obra. Y ante la dificultad de incorporar a la norma estas nuevas formas de creatividad, es esencial valorar el grado de autonomía del sistema, si las directrices recibidas han influido en el resultado. Para valorar la creatividad de la máquina será necesario considerar su nivel de autonomía.

IA y Derecho mercantil

La primera intervención de esta mesa corrió a cargo de Anselmo Martínez Cañellas, Profesor titular de Derecho Mercantil de la Universidad de las Islas Baleares, quien trató la relevancia de la “IA en los procesos concursales”.

El ponente destacó la potencial utilidad de la IA en diversos aspectos como sistema de asesoramiento automático para determinar la probabilidad de una insolvencia actual, en una fase previa; en todas las fases del concurso, para la redacción de textos jurídicos; para la búsqueda y selección de datos concretos; para la elaboración del plan de reestructuración y la ordenación de las diferentes clases de acreedores; para la valoración de bienes y derechos, del perjuicio del patrimonio y de la probabilidad de éxito de las acciones rescisorias; para la optimización de la venta de bienes en las subastas; en la distribución del líquido obtenido y en la calificación del concurso como fortuito o culpable. Sin embargo, advirtió, no se ha producido todavía jurisprudencia sobre este tema, por lo que hay que remitirse a la poca doctrina ya publicada al respecto.

Entrando más al detalle de algunas de estas posibilidades, el profesor Martínez se refirió a la capacidad de la IA para generar textos jurídicos en el ámbito concursal, una actividad vinculada a la localización de información relevante en grandes volúmenes de datos; de encontrar precedentes y de predecir el resultado de las decisiones judiciales. Toda esta actividad se enfrenta al riesgo de imprecisión de los resultados y de alucinaciones, o resultados formalmente correctos pero erróneos en su fondo.

Otras posibilidades son la IA como colaborador del administrador concursal, si bien la IA no puede ejercer tal cargo, porque no es una persona física (aunque algunos autores defienden la posibilidad de serlo como persona jurídica). En este sentido, del art. 65 del TRLC se desprende que el juez deberá autorizar el uso de la IA por el administrador concursal, por ello debería tener el mismo tratamiento que los auxiliares delegados del art. 75 del mismo texto. La Ley Concursal, destacó el ponente, quiere que haya muchos administradores concursales en el mercado, no uno solo en forma de una sistema de IA.

Igualmente, la IA permite una gran rapidez y precisión en la valoración de activos, por medio del análisis de múltiples datos. De esta forma, podrá permitir determinar si una operación es rescindible en el plazo de 2 años. Y, finalmente, Martínez Cañellas destacó que la IA puede servir para el asesoramiento para determinar la insolvencia actual, inminente o probable del deudor. Sin embargo, debe tenerse en cuenta que estos sistemas no son adecuados para determinar las causas de la insolvencia; que los modelos utilizados se suelen basar en el modelo concursal norteamericano, que es diferente del europeo; que su uso puede plantear problemas de protección de datos y que, según el Reglamento de IA, su uso supone la consideración como sistemas de alto riesgo. Por todo ello concluyó que debería adecuarse el Título III de la Ley Concursal, en particular en relación con las microempresas.

Seguidamente, y para tratar el papel de la “IA en los consejos de administración: los ciber-consejeros”, el Congreso contó con la intervención de Miguel Martínez Muñoz, Profesor propio adjunto de Derecho Mercantil y codirector de la Cátedra Uría Menéndez-ICADE de Regulación de los Mercados de la Universidad Pontificia de Comillas (ICADE).

Este ponente comenzó destacando que la IA viene a sustituir las debilidades humanas, pero no puede superar la experiencia o intuición humana. En todo caso, y para apoyar a los órganos de administración, ya existen diferentes sistemas en el mercado, sobre todo con base en el tratamiento masivo de datos.

En este contexto, el administrador puede seguir o no el consejo suministrado por la máquina, pero actuando con diligencia informada y discrecionalidad empresarial, puede consultar también cualquier otra fuente de asesoramiento. Lo esencial es tener en cuenta que el empleo de la IA no excluye la responsabilidad empresarial.

¿Podría actuar la IA como sustituto del administrador? el Derecho español no lo permite, pero, de admitirse esta posibilidad, debería ser un sistema autónomo, algo que a día de hoy no está todavía muy desarrollado. Además, sería necesario adaptar al respecto las normas del derecho de sociedades, considerando aspectos como la posible retribución, sobre la estructura del consejo de administración y las normas sobre paridad y género. Igualmente habría que adaptar las normas sobre responsabilidad , porque la IA puede fallar, haciendo que el administrador incumpla sus deberes.

IA y responsabilidad civil

La última mesa del programa, dedicada al muy relevante asunto de la “IA y responsabilidad civil”, se abrió con la presentación del Marco general del tema, a cargo de Fabio Addis, Profesor ordinario de Derecho Privado. Universidad Sapienza de Roma y Presidente de la UP - Unione dei Privatisti.

Addis comenzó destacando que la IA afecta a multitud de sectores y plantea problemas complejos y sin precedentes en materia de responsabilidad civil, poniendo a prueba la solidez de los marcos regulatorios consolidados. Y dado que el futuro Reglamento de IA no establece normas específicas sobre responsabilidad civil, surge la duda sobre cómo puede adaptarse el Derecho civil a las especiales características de esta tecnología, que a menudo escapan a la comprensión inmediata, incluso de sus creadores. Por ello, también cabe preguntarse como atribuir responsabilidad civil por sus acciones u omisiones. La responsabilidad civil como deber de resarcir por los daños causados se basa en la culpa y el nexo causal, conceptos que con la IA se pierden en su correspondencia con el pasado.

Una consecuencia es que la culpa se dispersa entre varios actores involucrados, por lo que hace falta un esfuerzo del intérprete en función de las circunstancias fácticas concurrentes, en un diálogo constante entre juristas, técnicos y ética, para preservar el neminem laedere según los estándares históricamente determinados. En particular, hay que tener en cuenta la autonomía de sistema para valorar la posible atribución de culpas.

Addis recalcó también que el Derecho civil debe equilibrar la necesidad de proteger a los individuos dañados, respetando los principios de justicia y equidad y, a la vez, no frenar la innovación con una regulación demasiado rígida. Y ello teniendo en cuenta que en el ámbito de la IA, el concepto de culpa se complica, porque atribuirsela a un algoritmo resulta problemático. Hay que valorar el respeto a los deberes de previsibilidad y del deber de diligencia, junto con el principio del nexo causal. Es necesaria una fijación consciente del fondo del asunto, valorando los intereses en juego en su condición individual y social.

Finalmente, el ponente señaló que, en relación con este tema se percibe una postura de fondo, que se reduce al binomio adaptación de los marcos de responsabilidad civil existentes o creación de unos marcos jurídicos específicos de responsabilidad civil en el ámbito de la IA. Estos plantean a su vez cuestiones éticas y sociales orientadas a garantizar aspectos como la no discriminación y se resumen en la importancia de asegurar que las normas defienden valores compartidos. Concluyó destacando que la IA va a jugar un papel relevante en la transformación social, por lo que el Derecho debería adaptarse al mismo asegurando la aplicación de los principios de equidad y seguridad, en beneficio de todos.

A continuación, la “Adaptación de las normas de responsabilidad extracontractual civil a la IA”, fue el objeto de la ponencia de María Luisa Atienza Navarro, Profesora titular de Derecho Civil de la Universidad de Valencia.

La profesora puso de entrada el foco en la propuesta de Directiva sobre responsabilidad civil de la IA, de septiembre de 2022, con la advertencia previa de que la IA no incrementa el riesgo de sufrir daños, al contrario, lo disminuye, porque reduce el riesgo de errores humanos y, con ello, la siniestralidad. Pero, a la vez, los daños que puede provocar son especialmente sensibles, por su propia naturaleza. En paralelo, vivimos una cultura de la reclamación, sobre todo cuando el daño proceda de una máquina. La cuestión no se ha resuelto todavía, porque es difícil, a causa de la opacidad e interconexión de los sistemas, que pueden gozar de una autonomía y capacidad de aprendizaje.

Según la profesora Atienza, las tendencias actuales se distinguen entre un camino seguro, identificado por la inminente reforma de la Directiva sobre productos defectuosos, aprobada el pasado mes de marzo y pendiente de publicación. En paralelo, existe un camino incierto es la propuesta de Directiva específica de septiembre de 2022, que actualmente se encuentra detenida porque se considera que tiene muchos puntos oscuros que precisar. El problema es que esta propuesta de Directiva se remite al Reglamento de IA y este excluye de su ámbito de aplicación los fines puramente personales.

En el debate sobre si la responsabilidad debe ser objetiva o por culpa, la tendencia actual es a excluir de momento la responsabilidad objetiva, porque los empresarios temen responder bajo una fórmula tan estricta, lo que podría limitar la innovación. Existe una propuesta de solución mixta que se basa en una exigencia de responsabilidad subjetiva durante cinco años, para pasar a la objetiva a continuación. El problema, en este caso, es la dificultad de armonización, ya que la Comisión Europea está viendo que encontrar una fórmula homogénea para unos sistemas heterogéneos es muy complicado, por sus diferentes finalidades.

La explicación de la “Adaptación de la normativa europea sobre productos defectuosos a las tecnologías digitales emergentes”, corrió a cargo de Ricardo Pazos, Profesor de Derecho Privado de la Universidad Pontificia de Comillas (ICADE).

El profesor Pazos orientó su intervención en torno a los aspectos más relevantes de la nueva Directiva: su ámbito de aplicación, que hace que nos aplica a los programas informáticos en código abierto no utilizados en servicios comerciales. En cuanto a los daños resarcibles, se consideran los daños en el propio producto, pero no se resarcen cuando los daños los causa uno de sus componentes, aunque sí se resarce la eliminación o corrupción de datos para fines privados.

En cuanto a la definición de producto, se refiere tanto a bienes tangibles como intangibles. Se pone énfasis en la importancia de la ciberseguridad y se recoge la exhibición de pruebas y la presunción de nexo causal, genérica y específica. Se debe probar daño, efecto y causalidad.

Por lo que se refiere a la pluralidad de responsables, se prevé la responsabilidad solidaria con un derecho de repetición. Esto, que puede tener sentido para la protección de los pequeños, también puede ser un incentivo para que no crezcan. Y en cuanto a las causas de exoneración, se apuntan los riesgos asociados al desarrollo y la culpa de la víctima.

Cerró el congreso la intervención de Francesco Paolo Patti, Profesor asociado de Derecho Privado de la Universidad Bocconi de Milán, quien abordó el tema de “Los datos como producto defectuoso”.

Se trata de un asunto que se enfrenta a la dificultad de probar que un dato defectuoso ha causado un daño y, a su vez, la dificultad de probar la existencia de un uso defectuoso.

En esta línea, mientras el Reglamento de IA establece unas reglas horizontales, la Directiva sobre productos defectuosos establece una presunción revocable de relación causal en su artícul 4, y una presunción revocable de no cumplimiento, en su artículo 3.

En la propuesta de nueva Directiva sobre productos defectuosos, la carga de la prueba sigue siendo de la víctima, que debe probar que el producto era defectuoso. Se establece una presunción de defecto cuando no se cumple el deber de informar al usuario y se establece una presunción de causalidad caundo la excesiva complejidad técnica dificulta la prueba, y se incorporan vías de defensa de la demandado, que Patti puso en relación con los artículos 2050 y 2051 del Código Civil italiano.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll