Cargando. Por favor, espere

El Parlamento Europeo aprueba nuevas normas de transparencia y gestión de riesgos para los sistemas de Inteligencia Artificial (11 mayo 2023)

El Parlamento Europeo aprueba nuevas normas de transparencia y gestión de riesgos para los sistemas de Inteligencia Artificial (11 mayo 2023)

  • 3-6-2023 | Unión Europea
  • El objetivo es garantizar un desarrollo ético y centrado en el ser humano de la Inteligencia Artificial (IA) en Europa. Con ello. Constituye la primera regulación de este tipo en el mundo, lo que significa que la UE puede liderar el camino para hacer que la IA esté centrada en el ser humano y sea fiable y segura. Con ello se pretende apoyar la innovación de la IA en Europa, dando espacio a las empresas de nueva creación, a las PYME y a la industria para crecer e innovar, protegiendo al mismo tiempo los derechos fundamentales, reforzando la supervisión democrática y garantizando un sistema maduro de gobernanza y aplicación de la IA.

Con 84 votos a favor, 7 en contra y 12 abstenciones, la comisión de Mercado Interior y la de Libertades Civiles aprobaron el jueves un proyecto de mandato de negociación sobre las primeras normas de la historia para la Inteligencia Artificial. En sus enmiendas a la propuesta de la Comisión, los eurodiputados pretenden garantizar que los sistemas de IA estén supervisados por personas, sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. También quieren contar con una definición uniforme de IA diseñada para ser tecnológicamente neutra, de modo que pueda aplicarse a los sistemas de IA de hoy y de mañana.

Enfoque de la IA basado en el riesgo y prácticas de IA prohibidas

Las normas siguen un enfoque basado en el riesgo y establecen obligaciones para proveedores y usuarios en función del nivel de riesgo que pueda generar la IA. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que desplieguen técnicas subliminales o de manipulación intencionada, exploten las vulnerabilidades de las personas o se utilicen para el scoring social (clasificación de personas en función de su comportamiento social, estatus socioeconómico o características personales).

Los eurodiputados modificaron sustancialmente la lista para incluir prohibiciones de usos intrusivos y discriminatorios de sistemas de IA como:

  • Sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público;
  • Sistemas de identificación biométrica remota «a posteriori», con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial;
  • Sistemas de categorización biométrica que utilicen características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política);
  • Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores);
  • Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y
  • Extracción indiscriminada de datos biométricos de redes sociales o grabaciones de CCTV para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad).

IA de alto riesgo

Los eurodiputados ampliaron la clasificación de áreas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También añadieron a la lista de alto riesgo los sistemas de IA para influir en los votantes en las campañas políticas y en los sistemas de recomendación utilizados por las plataformas de medios sociales (con más de 45 millones de usuarios según la Ley de Servicios Digitales).

IA de uso general: medidas de transparencia

Los eurodiputados incluyeron obligaciones para los proveedores de modelos de cimentación —un desarrollo nuevo y en rápida evolución en el campo de la IA—, que tendrían que garantizar una sólida protección de los derechos fundamentales, la salud y la seguridad y el medio ambiente, la democracia y el Estado de Derecho. Tendrían que evaluar y mitigar los riesgos, cumplir los requisitos de diseño, información y medio ambiente y registrarse en la base de datos de la UE.

Los modelos de base generativa, como GPT, tendrían que cumplir requisitos adicionales de transparencia, como revelar que los contenidos han sido generados por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Apoyo a la innovación y protección de los derechos de los ciudadanos

Para impulsar la innovación en IA, los eurodiputados han añadido exenciones a estas normas para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. La nueva ley promueve la creación de entornos controlados por parte de las autoridades públicas para probar la IA antes de su despliegue.

Los eurodiputados quieren impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten significativamente a sus derechos. Los eurodiputados también reforman el papel de la Oficina de IA de la UE, que se encargaría de supervisar cómo se aplica el reglamento sobre IA.

Actividades futuras

Antes de que puedan comenzar las negociaciones con el Consejo sobre la forma final de la ley, este proyecto de mandato de negociación debe ser refrendado por todo el Parlamento, y se espera que la votación tenga lugar durante el periodo de sesiones del 12 al 15 de junio.

Añadir comentario1Comentarios
Alfred Segu|30/06/2023 17:17:46
Espero que tingui una redacció més concreta i que els estats membres ho apliquin Notificar comentario inapropiado
Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll