Cargando. Por favor, espere

Más de un centenar de relevantes académicos europeos y americanos piden a los legisladores europeos que el futuro reglamento de IA incluya una evaluación de impacto sobre los derechos fundamentales

Más de un centenar de relevantes académicos europeos y americanos piden a los legisladores europeos que el futuro reglamento de IA incluya una evaluación de impacto sobre los derechos fundamentales

  • 18-9-2023 | LA LEY
  • Los expertos piden que se mantenga la propuesta presentada en este sentido por el Parlamento Europea, de forma que se definan: unos parámetros claros para la evaluación del impacto de la IA en los derechos fundamentales; transparencia sobre los resultados de esta evaluación de impacto y participación de los usuarios finales afectados y de las autoridades públicas independientes
Portada

Carlos B Fernández. Un grupo de más de 130 profesores y catedráticos de universidad europeos, norteamericanos y canadienses, han suscrito una carta dirigida por el Brussels Privacy Hub a los negociadores europeos, instándoles a que la regulación sobre inteligencia artificial (IA) que están elaborando, incluya una evaluación del impacto de esta tecnología sobre los derechos fundamentales de las personas (FRIA, por su abreviatura en inglés).

Aunque los firmantes del texto reconocen que la propuesta de Reglamento aprobada en junio pasado por el Parlamento Europeo , ya incluye previsiones en esta dirección en relación con los sistemas de IA considerados de alto riesgo, expresan su temor de que esta propuesta se diluya en el transcurso de los trílogos que actualmente se están desarrollando.

Por ello, estos reconocidos expertos en materia de IA, protección de datos y derechos fundamentales, entre los que se encuentran los españoles José Luis Piñar, Lorenzo Cotino, Julián Valero Torrijos, Pere Simón, Jorge Castellanos, Adrián Palma y Carissa Véliz; los italianos Alessandro Mantelero, Oreste Pollicino o Giovanni Sartor, el belga Paul de Hert y los norteamericanos Shoshana Zuboff y Marc Rotenberg, piden que se mantenga la versión del Parlamento y, en particular, que se garanticen:

1) unos parámetros claros sobre la evaluación del impacto de la IA en los derechos fundamentales;

2) transparencia sobre los resultados de la evaluación de impacto realizada, mediante la difusión de resúmenes públicos significativos

3) la participación de los usuarios finales afectados, especialmente si se encuentran en una posición de vulnerabilidad, y

4) la participación de autoridades públicas independientes en el proceso de evaluación de impacto y/o mecanismos de auditoría.

En su misiva, los firmantes subrayan que “como expertos en diversas disciplinas, hemos sido testigos de los profundos riesgos que los sistemas de IA pueden acarrear para los derechos

fundamentales y de la necesidad de acciones ex ante exhaustivas y significativas para mitigar esos impactos”. Por ello, “la inclusión de un sólido mecanismo de evaluación de impacto sobre los derechos fundamentales en la Ley de Inteligencia Artificial de la UE es una salvaguardia fundamental contra los posibles efectos adversos sobre los derechos fundamentales de los usuarios finales, especialmente los que se encuentran en una situación vulnerable”.

En este sentido, esta obligación de llevar a cabo una FRIA estaría en consonancia y complementaría otros deberes de evaluación de impacto más limitados y específicos que las entidades privadas y públicas de la UE ya tienen en virtud de otras normativas (por ejemplo, el GDPR (LA LEY 6637/2016) y la DSA).

Esta evaluación exhaustiva permitirá “una evaluación sistemática del impacto de los sistemas de IA sobre los derechos fundamentales, garantizando la responsabilidad, la transparencia y el uso ético de las tecnologías de IA”.

Por ello, los expertos firmantes sostienen que esta evaluación de impacto debería, además, “coordinarse con los demás mecanismos de evaluación de impacto ya presentes en el proyecto de Reglamento de IA y en otros actos legislativos de la UE”. De esta forma, las autoridades nacionales independientes de supervisión podrían aplicar los principios de la esta evaluación a través de marcos coherentes y accesibles, mejorando la previsibilidad de la adecuación y aplicación del proceso. Con ello se reduciría la carga de obligaciones que la propuesta de Reglamento prevé para los implantadores de IA.

Esta evaluación de impacto “debe abarcar no sólo a las instituciones públicas, sino también a las entidades privadas que utilizan la IA”. De este modo, se sostiene, “nos aseguramos de que todas las organizaciones, independientemente de su naturaleza, rindan cuentas de los riesgos potenciales y del impacto que sus sistemas de IA pueden tener en las personas y en la sociedad en su conjunto, especialmente teniendo en cuenta el enorme impacto que los desarrolladores y usuarios privados de IA pueden tener en los derechos fundamentales de las personas”.

Además, se insta a las instituciones de la UE a garantizar que el proceso de evaluación sea “transparente, participativo y multidisciplinar”, de forma que la participación de diversas partes interesadas, incluidas las organizaciones de la sociedad civil, los expertos, el mundo académico y las comunidades marginadas, enriquezca el proceso de evaluación y refuerce la legitimidad del marco regulador de la IA.

Por último, al abordar la complejidad de los riesgos relacionados con los derechos fundamentales, la evaluación del riesgo debe ser una herramienta integrada con una distribución proporcional de las cargas basada en el riesgo real introducido en la sociedad y en el poder de los agentes individuales para gestionar dicho riesgo, tal como se acepta generalmente en la teoría jurídica del riesgo. Por lo tanto, los proveedores de IA deben realizar la evaluación general de un producto/servicio de IA considerando todos sus usos potenciales, pero las entidades que utilicen ese producto/servicio en un contexto determinado y para fines específicos deben integrar esta evaluación inicial con el análisis del impacto contextual sobre los derechos fundamentales.

El Brussels Privacy Hub, entidad dependiente de la Universidad Libre de Bruselas fundada en 2014 por los profesores Kuner y De Hert, con la finalidad de fomentar la investigación y el intercambio de ideas sobre la privacidad de la más alta calidad.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll