Cargando. Por favor, espere

Recomendaciones de la quinta edición de la Mesa de Atenas sobre IA y estado de Derecho

  • 3-4-2024 | LA LEY
  • La Mesa de Atenas sobre IA y estado de Derecho (The Athens Roundtable on AI and the Rule of Law) es un relevante foro internacional en el que participan los principales actores de la industria, la política y el ámbito jurídico relacionados con la IA. La iniciativa fue puesta en marcha en 2019 por The Future Society (TFS), una organización independiente y sin ánimo de lucro, con sede en EE. UU. y Europa, creada con la finalidad de definir e implementar mecanismos de gobernanza de la IA.
Portada

Carlos B Fernández. La Quinta edición de la Mesa tuvo lugar en Washington los pasados días 30 de noviembre y 1 de diciembre de 2023. El evento reunió a más de 1.150 participantes y 65 ponentes, entre los que se encontraban senadores y congresistas estadounidenses, desarrolladores de IA, expertos jurídicos y representantes de la sociedad civil, en dos días de diálogo centrado en la coordinación de esfuerzos para aprovechar las oportunidades políticas y diseñar conjuntamente soluciones prácticas para la gobernanza de la ia.

Un documento recientemente publicado (Towards Effective Governance of Foundation Models and Generative AI - Takeaways from the fifth edition of the Athens Roundtable on AI and the rule of law ), elaborado por la investigadora de TFS, Amanda Leal, ha recogido los principales aspectos tratados en estas sesiones y las conclusiones y recomendaciones extraídas de las mismas.

Los debates se centraron en los esfuerzos nacionales para avanzar en la regulación vinculante, como los esfuerzos legislativos federales de EE.UU., los próximos pasos de las agencias federales basados en la Orden Ejecutiva 14110 de EE.UU. sobre el Desarrollo y Uso Seguro y Confiable de la Inteligencia Artificial, la Ley de IA de la Unión Europea y la regulación de la IA generativa de China. Los diálogos también abarcaron los esfuerzos intergubernamentales, incluido el impacto del Proceso de IA de Hiroshima del G7 en la gobernanza empresarial, el alcance de la Recomendación de Ética de la IA de la UNESCO (y los subsiguientes esfuerzos de implementación), el potencial de una iniciativa de gobernanza mundial de la IA derivada del Órgano Consultivo de Alto Nivel de la ONU sobre IA, y el trabajo basado en pruebas del Observatorio de Políticas de IA de la OCDE.

2023, el año del cambio

El informe comienza situando a 2023 como el año en el que, debido a la aparición de unas tecnologías con capacidades cada vez más potentes, se ha acelerado la concentración de poder en las grandes tecnológicas que ha provocado una llamada de atención a escala social. De esta manera, la gobernanza de la IA escaló posiciones en la agenda de los responsables políticos y de la toma de decisiones de todo el mundo.

Las crecientes amenazas a los procesos democráticos y a los derechos humanos que plantean los sistemas generativos de IA han suscitado llamamientos a la regulación.

Los expertos reunidos concluyen que, ante este panorama, es necesario exigir colectivamente unas normas rigurosas de seguridad, transparencia y supervisión, para garantizar que estos sistemas se desarrollen y desplieguen de forma responsable.

La necesidad de una regulación exhaustiva de la IA

En el resumen se destaca igualmente que resulta urgente adoptar un enfoque multiparte de la gobernanza de la IA, que incluya una regulación exhaustiva, unas definiciones y métricas precisas y unos mecanismos de aplicación sólidos.

Los obstáculos a un enfoque de la gobernanza de la IA basado en los derechos y anclado en el Estado de Derecho nunca han sido más tangibles. El aumento de las capacidades de la IA, las tensiones geopolíticas y los intereses impulsados por el mercado ponen en duda nuestra capacidad para defender colectivamente el interés público en el desarrollo y la gobernanza de los sistemas de IA.

De cara al futuro, la Mesa Redonda de Atenas mantiene un compromiso clave: Reexaminar nuestras prácticas y supuestos actuales, acogiendo las aportaciones y comentarios de un público amplio, prestando especial atención a la participación de las comunidades infrarrepresentadas.

Principales recomendaciones de los debates

1. Adoptar normativas horizontales y verticales exhaustivas

Es crucial que los países establezcan requisitos jurídicamente vinculantes en forma de regulación para orientar eficazmente el comportamiento de los desarrolladores e implantadores de IA hacia el interés público. La autogestión y el soft law no han cumplido sus promesas en materia de IA responsable y seguridad, especialmente cuando se trata de modelos fundamentales. Las normativas sectoriales y generales deben adoptarse de forma complementaria en todas las jurisdicciones para llenar el vacío existente en la gobernanza de la IA. Este enfoque permite una gobernanza sólida en toda la cadena de valor de la IA, desde el diseño y el desarrollo hasta la supervisión, incluidos los modelos fundamentales de uso general que no encajan en ningún sector concreto y pueden no estar afectados por las normativas sectoriales actuales o futuras.

2. Reforzar la resistencia de las instituciones democráticas

Existe una necesidad urgente de reforzar la resistencia de las instituciones democráticas frente a las perturbaciones derivadas de los avances tecnológicos, en particular de los sistemas avanzados de IA de propósito general. Los elementos clave para aumentar la resistencia son: el desarrollo de capacidades, por medio de la formación de los empleados y la atracción y retención de talentos, en todas las instituciones gubernamentales; la innovación institucional para actualizar las estructuras y procesos del sector público; una autoridad de ejecución que abarque la supervisión del desarrollo y despliegue de los sistemas de IA y la participación pública efectiva. Esta última es crucial para garantizar que las instituciones estatales siguen siendo democráticas, mantienen la confianza de los ciudadanos y actúan en pro del interés público.

3. Mejorar la coordinación entre las organizaciones de la sociedad civil para impulsar políticas de AI responsables

En un entorno político con fuertes grupos de presión de la industria y muchos puntos de vista contradictorios, será crucial que las organizaciones de la sociedad civil (o CSOS, por su abrevitatura en inglés) coordinen sus esfuerzos para desarrollar las recomendaciones políticas más prometedoras. La clave de esta coordinación será garantizar que las OSCI implicadas sean demográfica, cultural y políticamente representativas de la población en general, y que escuchen sistemáticamente las voces de las comunidades más afectadas por las tecnologías emergentes.

4. Invertir en el desarrollo de métodos para medir y evaluar las capacidades, riesgos e impactos de los modelos fundamentales

Los métodos de medición y evaluación desempeñan un papel indispensable para comprender y supervisar las capacidades tecnológicas, establecer salvaguardias para proteger los derechos fundamentales y mitigar los riesgos a gran escala para la sociedad. Sin embargo, los métodos actuales siguen siendo imperfectos y requerirán un desarrollo persistente en los próximos años. Los gobiernos deben invertir en esfuerzos multidisciplinares para desarrollar métodos de medición y evaluación, como puntos de referencia, evaluaciones de capacidad, pruebas de red-teaming, técnicas de auditoría, evaluaciones de riesgo y evaluaciones de impacto.

5. Dar cabida a la representación de mayorías significativas y de las partes interesadas afectadas en los proyectos de elaboración de normas sobre IA

Muchas iniciativas normativas siguen careciendo de aportaciones de las organizaciones de la sociedad civil que representan a las comunidades afectadas. Los responsables políticos y los líderes de tales iniciativas deben esforzarse por comprender y abordar los factores estructurales que han llevado a la infrarrepresentación o a la falta de participación de determinados grupos en los esfuerzos internacionales de elaboración de normas. Entre los posibles mecanismos para fomentar la participación figuran la remuneración de los grupos infrarrepresentados y la reestructuración de los procesos internos para que participen de forma tangible, en lugar de limitarse a ofrecer una mera representación formal.

6. Desarrollar y adoptar marcos de responsabilidad para los modelos fundamentales y la IA generativa

Los marcos de responsabilidad deben abordar la compleja y cambiante cadena de valor de la IA, a fin de desincentivar los comportamientos potencialmente perjudiciales y mitigar los riesgos. Las empresas que ponen modelos fundamentales a disposición de los usuarios finales en una serie de ámbitos se benefician de un vacío de responsabilidad, ya que actualmente se pasa por alto la cadena causal entre las opciones de desarrollo y cualquier daño causado por el modelo. La regulación que establece la responsabilidad a lo largo de la cadena de valor de la IA es crucial para generar la rendición de cuentas y distribuir equitativamente la responsabilidad legal, evitando que la responsabilidad se transfiera exclusivamente a los implantadores o usuarios de los sistemas de IA.

7. Desarrollar e implementar un conjunto de mecanismos reguladores para hacer operativa la seguridad por diseño en los modelos fundamentales

Dado el carácter transfronterizo de la cadena de valor de la IA, los mecanismos reguladores deben ser interoperables entre los diferentes países. Para ello, los reguladores deben invertir en programas de sandbox regulatorios para probar y perfeccionar los modelos fundamentales y las correspondientes salvaguardias reguladoras antes de su despliegue.

8. Crear un régimen especial de gobernanza para la puesta en funcionamiento de modelos fundamentales de doble uso

Las decisiones relativas a la puesta en funcionamiento de modelos fundamentales de doble uso deben ser objeto de escrutinio, ya que plantean riesgos para la sociedad. La realización de pruebas exhaustivas antes de la publicación sería de interés público para los modelos que se encuentran en la frontera entre ambos tipos de uso. Un debate más profundo entre las partes interesadas debería identificar métodos de puesta en funcionamiento de modelos que maximicen los beneficios de la ciencia abierta y la innovación, sin sacrificar la seguridad pública.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll