Cargando. Por favor, espere

El uso de la inteligencia artificial en la UE estará regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo (8 diciembre 2023)

El uso de la inteligencia artificial en la UE estará regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo (8 diciembre 2023)

  • 18-1-2024 | Unión Europea
  • Los Estados y el Parlamento Europeo llegaron el 8 de diciembre de 2023, y después de tres días de intensas y duras negociaciones, a un acuerdo, un texto final que todavía deberá ser ratificado antes de entrar en vigor, previsiblemente a finales de 2026, aunque algunas disposiciones entrarán en vigor con anterioridad. Este texto define las obligaciones y normas por las que deberá regirse una tecnología que está aquí para quedarse y que está transformando completamente la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de ellos ni siquiera aún imaginables.

La Ley de IA es una iniciativa legislativa emblemática con el potencial de fomentar el desarrollo y la adopción de IA segura y confiable en todo el mercado único de la UE por parte de actores públicos y privados. La idea principal es regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque 'basado en el riesgo' : cuanto mayor es el riesgo, más estrictas son las reglas . Como primera propuesta legislativa de este tipo en el mundo, puede establecer un estándar global para la regulación de la IA en otras jurisdicciones, tal como lo ha hecho el GDPR (LA LEY 6637/2016), promoviendo así el enfoque europeo de la regulación tecnológica en el escenario mundial.

Antecedentes

Se espera que las tecnologías de IA aporten un amplio abanico de beneficios económicos y sociales a una gran variedad de sectores, como el medio ambiente y la sanidad, el sector público, las finanzas, la movilidad, los asuntos de interior y la agricultura. Son especialmente útiles para mejorar la predicción, optimizar las operaciones y la asignación de recursos y personalizar los servicios. Sin embargo, las implicaciones de los sistemas de IA para los derechos fundamentales protegidos por la Carta de los Derechos Fundamentales de la UE (LA LEY 12415/2007), así como los riesgos para la seguridad de los usuarios cuando las tecnologías de IA están integradas en productos y servicios, suscitan preocupación. En particular, los sistemas de IA pueden poner en peligro derechos fundamentales como el derecho a la no discriminación, la libertad de expresión, la dignidad humana, la protección de los datos personales y la privacidad. Dado el rápido desarrollo de estas tecnologías, en los últimos años la regulación de la IA se ha convertido en una cuestión política central en la Unión Europea (UE). Los responsables políticos se comprometieron a desarrollar un enfoque «humanocéntrico» de la IA para garantizar que los europeos puedan beneficiarse de las nuevas tecnologías desarrolladas y que funcionen de acuerdo con los valores y principios de la UE.

En su Libro Blanco sobre Inteligencia Artificial 2020, la Comisión Europea se comprometió a fomentar la adopción de la IA y a abordar los riesgos asociados a determinados usos de esta nueva tecnología. Si bien la Comisión Europea adoptó inicialmente un enfoque de Derecho indicativo, con la publicación de sus Directrices éticas no vinculantes de 2019 para una IA digna de confianza y recomendaciones políticas y de inversión, desde entonces ha cambiado hacia un enfoque legislativo, instando a la adopción de normas armonizadas para el desarrollo, la comercialización y el uso de sistemas de IA.

La Comisión Europea presentó una propuesta de marco normativo de la UE sobre inteligencia (IA) en abril de 2021. El proyecto de ley sobre IA constituyó el primer intento de promulgar una normativa horizontal para la IA. El marco jurídico propuesto se centra en la utilización específica de los sistemas de IA y los riesgos asociados. asociados. La Comisión proponía establecer una definición tecnológicamente neutra de los sistemas de IA en la legislación de la UE y establecer una clasificación de los sistemas de IA con diferentes requisitos y obligaciones adaptados según un «enfoque basado en el riesgo». Algunos sistemas de IA que presenten riesgos «inaceptables» estarían prohibidos, sin embargo, se autorizaría una amplia gama de sistemas de IA de «alto riesgo», pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE. para acceder al mercado de la UE. Los sistemas de IA de «riesgo limitado» estarían sujetos a obligaciones de transparencia muy leves.

El Consejo acordó la posición general de los Estados miembros de los Estados miembros en diciembre de 2021 y el Parlamento votó su posición en junio de 2023. A partir de entonces los legisladores de la UE comenzaron las negociaciones para ultimar la nueva legislación, con modificaciones sustanciales de la a la propuesta de la Comisión, incluida la revisión de la definición de sistemas de IA, la ampliación de la lista de sistemas de IA prohibidos y la imposición de obligaciones a los Estados miembros. la lista de sistemas de IA prohibidos e imponer obligaciones a la IA de propósito general y a los modelos de IA generativa como ChatGPT.

Objetivos

Como parte de su estrategia digital, la UE quiere regular la inteligencia artificial (IA) para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible.

Ley de IA: normas diferentes para niveles diferentes de riesgo

¿Qué es la inteligencia artificial?

La inteligencia artificial (IA) es el uso de tecnología digital para crear sistemas capaces de realizar tareas que comúnmente se cree que requieren inteligencia humana.

La IA no es una tecnología nueva. Algunas tecnologías de IA existen desde hace décadas, pero los avances en la potencia de las computadoras, la disponibilidad de grandes cantidades de datos y nuevo software han llevado a grandes avances en un corto período de tiempo.

La IA ya se utiliza en muchas aplicaciones de la vida cotidiana, como por ejemplo:

  • asistencia virtual
  • diagnósticos médicos
  • traducciones automatizadas
  • herramientas de navegación
  • control de calidad en la fabricación
  • predicción de desastres naturales

La IA puede contribuir a una economía más innovadora, eficiente, sostenible y competitiva, al tiempo que mejora la seguridad, la educación y la atención sanitaria de los ciudadanos. También apoya la lucha contra el cambio climático.

Si bien apoya el desarrollo de la tecnología de inteligencia artificial, la UE reconoce los riesgos potenciales y fomenta un enfoque ético y centrado en el ser humano respecto de esta tecnología.

Principales elementos del acuerdo

En comparación con la propuesta inicial de la Comisión, los principales elementos nuevos del acuerdo pueden resumirse como sigue:

  • reglas sobre modelos de IA de propósito general de alto impacto que pueden causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo
  • un sistema revisado de gobernanza con algunos poderes de ejecución a nivel de la UE
  • ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias
  • una mejor protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA

En términos más concretos, el acuerdo cubre los siguientes aspectos:

Definiciones y alcance

Para garantizar que la definición de un sistema de IA proporcione criterios suficientemente claros para distinguir la IA de los sistemas de software más simples, el acuerdo de compromiso alinea la definición con el enfoque propuesto por la OCDE.

El acuerdo también aclara que el reglamento no se aplica a áreas fuera del alcance de la legislación de la UE y no debería, en ningún caso, afectar las competencias de los Estados miembros en materia de seguridad nacional o cualquier entidad a la que se le hayan confiado tareas en esta área. Además, la ley de IA no se aplicará a los sistemas que se utilicen exclusivamente con fines militares o de defensa . Del mismo modo, el acuerdo establece que la regulación no se aplicaría a los sistemas de IA utilizados con el único fin de investigación e innovación , ni a personas que utilicen la IA por motivos no profesionales.

Clasificación de los sistemas de IA como prácticas de IA prohibidas y de alto riesgo

El acuerdo prevé una capa horizontal de protección, incluida una clasificación de alto riesgo, para garantizar que no se capturen los sistemas de inteligencia artificial que probablemente no causen violaciones graves de los derechos fundamentales u otros riesgos importantes. Los sistemas de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves , por ejemplo, revelar que el contenido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior.

Se autorizará una amplia gama de sistemas de IA de alto riesgo , pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE. Estos requisitos han sido aclarados y ajustados por los colegisladores de tal manera que sean más viables técnicamente y menos gravosos de cumplir para las partes interesadas, por ejemplo en lo que respecta a la calidad de los datos o en relación con la documentación técnica que debe ser elaborado por pymes para demostrar que sus sistemas de IA de alto riesgo cumplen los requisitos.

Dado que los sistemas de IA se desarrollan y distribuyen a través de cadenas de valor complejas, el acuerdo incluye cambios que aclaran la asignación de responsabilidades y roles de los diversos actores en esas cadenas, en particular los proveedores y usuarios de sistemas de IA. También aclara la relación entre las responsabilidades en virtud de la Ley de IA y las responsabilidades que ya existen en virtud de otra legislación, como la legislación sectorial o de protección de datos de la UE pertinente.

Para algunos usos de la IA, el riesgo se considera inaceptable y, por lo tanto, estos sistemas serán prohibidos en la UE. El acuerdo, por ejemplo, la manipulación cognitiva conductual , la eliminación no selectiva de imágenes faciales de Internet o imágenes de CCTV, el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social , la categorización biométrica para inferir datos sensibles, como la orientación sexual o la religión. creencias y algunos casos de vigilancia policial predictiva para individuos.

Excepciones de aplicación de la ley

Teniendo en cuenta las especificidades de las autoridades encargadas de hacer cumplir la ley y la necesidad de preservar su capacidad de utilizar la IA en su trabajo vital, se acordaron varios cambios en la propuesta de la Comisión en relación con el uso de sistemas de IA con fines policiales. Sujetos a las salvaguardias adecuadas , estos cambios pretenden reflejar la necesidad de respetar la confidencialidad de los datos operativos sensibles en relación con sus actividades. Por ejemplo, se introdujo un procedimiento de emergencia que permite a los organismos encargados de hacer cumplir la ley desplegar en caso de urgencia una herramienta de inteligencia artificial de alto riesgo que no haya pasado el procedimiento de evaluación de la conformidad . Sin embargo, también se ha introducido un mecanismo específico para garantizar que los derechos fundamentales estén suficientemente protegidos contra posibles usos indebidos de los sistemas de IA.

Además, en lo que respecta al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, el acuerdo aclara los objetivos cuando dicho uso sea estrictamente necesario para fines policiales y para los cuales, por tanto, debe permitirse excepcionalmente a las autoridades policiales utilizar dichos sistemas. El acuerdo prevé salvaguardias adicionales y limita estas excepciones a los casos de víctimas de ciertos delitos, la prevención de amenazas genuinas, presentes o previsibles, como ataques terroristas, y la búsqueda de personas sospechosas de los delitos más graves.

Sistemas de IA de propósito general y modelos básicos

Se han añadido nuevas disposiciones para tener en cuenta situaciones en las que los sistemas de IA pueden utilizarse para muchos fines diferentes ( IA de propósito general ) y en las que la tecnología de IA de propósito general se integra posteriormente en otro sistema de alto riesgo. El acuerdo también aborda los casos específicos de los sistemas de IA de propósito general (GPAI).

También se han acordado reglas específicas para los modelos básicos , grandes sistemas capaces de realizar de manera competente una amplia gama de tareas distintivas, como generar vídeo, texto, imágenes, conversar en lenguaje lateral, informática o generar código informático. El acuerdo establece que los modelos de base deben cumplir con obligaciones específicas de transparencia antes de su comercialización. Se introdujo un régimen más estricto para los modelos de cimentaciones de «alto impacto» . Se trata de modelos básicos entrenados con una gran cantidad de datos y con una complejidad, capacidades y rendimiento avanzados muy por encima del promedio, que pueden difundir riesgos sistémicos a lo largo de la cadena de valor.

Una nueva arquitectura de gobernanza

A raíz de las nuevas normas sobre los modelos GPAI y la evidente necesidad de su aplicación a nivel de la UE, se crea una Oficina de IA dentro de la Comisión encargada de supervisar estos modelos de IA más avanzados, contribuir a fomentar estándares y prácticas de prueba, y hacer cumplir las normas comunes en todos los estados miembros. Un panel científico de expertos independientes asesorará a la Oficina de AI sobre los modelos GPAI, contribuyendo al desarrollo de metodologías para evaluar las capacidades de los modelos de cimientos, asesorando sobre la designación y el surgimiento de modelos de cimientos de alto impacto y monitoreando posibles riesgos de seguridad de materiales relacionados. a modelos de cimentación.

La Junta de AI, que estará compuesta por representantes de los Estados miembros, seguirá siendo una plataforma de coordinación y un órgano asesor de la Comisión y otorgará un papel importante a los Estados miembros en la implementación del reglamento, incluido el diseño de códigos de prácticas para las fundaciones. modelos. Por último, se creará un foro consultivo para las partes interesadas, como representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico, para proporcionar conocimientos técnicos a la Junta de IA.

Penalizaciones

Las multas por violaciones de la ley de IA se establecieron como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, lo que sea mayor. Esto equivaldría a 35 millones de euros o el 7% por violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3% por violaciones de las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el suministro de información incorrecta. Sin embargo, el acuerdo establece límites más proporcionados a las multas administrativas para las pymes y las empresas de nueva creación en caso de infracción de las disposiciones de la Ley de IA.

El acuerdo también deja claro que una persona física o jurídica puede presentar una queja ante la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento de la Ley de IA y puede esperar que dicha queja se tramite de acuerdo con los procedimientos específicos de esa autoridad.

Transparencia y protección de los derechos fundamentales

El acuerdo prevé una evaluación del impacto sobre los derechos fundamentales antes de que sus implementadores pongan en el mercado un sistema de inteligencia artificial de alto riesgo y también prevé una mayor transparencia con respecto al uso de sistemas de inteligencia artificial de alto riesgo. En particular, se han modificado algunas disposiciones de la propuesta de la Comisión para indicar que ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE para sistemas de IA de alto riesgo. Además, las disposiciones recientemente añadidas hacen hincapié en la obligación de que los usuarios de un sistema de reconocimiento de emociones informen a las personas físicas cuando estén expuestas a dicho sistema.

Medidas de apoyo a la innovación

Con vistas a crear un marco jurídico más favorable a la innovación y promover el aprendizaje normativo basado en pruebas, las disposiciones relativas a las medidas de apoyo a la innovación se han modificado sustancialmente en comparación con la propuesta de la Comisión.

En particular, se ha aclarado que los entornos limitados de pruebas regulatorios de IA , que se supone que deben establecer un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real. Además, se han agregado nuevas disposiciones que permiten probar sistemas de IA en condiciones del mundo real , bajo condiciones y salvaguardias específicas. Para aliviar la carga administrativa para las empresas más pequeñas, el acuerdo incluye una lista de acciones que deben emprenderse para apoyar a dichos operadores y prevé algunas derogaciones limitadas y claramente especificadas. Actuaciones futuras

Actuaciones futuras

El proyecto de reglamento aprobado el 8 de diciembre de 2023 tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos. Su aprobación lo convertirá convertirse en una referencia o estándar para otras regiones más allá de las fronteras comunitarias.

Tras este acuerdo provisional, en las próximas semanas se seguirá trabajando a nivel técnico para ultimar los detalles del nuevo reglamento. La Presidencia presentará el texto transaccional a los representantes de los Estados miembros (Coreper) para su aprobación una vez concluido este trabajo.

El texto completo deberá ser confirmado por ambas instituciones y sometido a una revisión jurídico-lingüística antes de su adopción formal por los colegisladores.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll