Cargando. Por favor, espere

Avanza la tramitación de la Directiva europea de trabajo en plataformas digitales

  • 22-9-2023 | LA LEY
  • La Directiva tiene por objeto aumentar la transparencia en relación con el uso de algoritmos por parte de las plataformas digitales de trabajo; garantizar la supervisión humana de las condiciones de trabajo y reconocer el derecho a impugnar las decisiones automatizadas, tanto a los trabajadores por cuenta ajena como a los verdaderos autónomos. Se trata de la primera propuesta de regulación de la IA en el ámbito laboral, por lo que puede servir de precursora para la regulación en otros ámbitos específicos.
Portada

Carlos B Fernández. En la actualidad, más de 28 millones de personas de la Unión Europea prestan sus servicios a través de una de las 500 plataformas digitales que operan en la Unión, y se prevé que esta cifre aumente hasta los 43 millones en 2025.

Estas plataformas digitales están activas en todos los países de la UE y representan un sector de la economía en continuo crecimiento, como demuestra el dato de que, entre 2016 y 2020, los ingresos de la economía de plataformas casi se quintuplicaron, pasando de unos 3 000 millones de euros a cerca de 14 000 millones de euros. De ello, se estima que los mayores ingresos corresponden a los sectores de los servicios de reparto y taxi.

Por lo general, la principal fuente de ingresos de las plataformas digitales es una comisión por los servicios (cobrada al cliente o a la persona que trabaja a través de la plataforma). Sin embargo, las plataformas digitales también suelen cobrar una cuota de suscripción a las personas que trabajan a través de la plataforma.

El trabajo prestado a través de estas plataformas presenta características muy diversas, lo que dificulta su regulación normativa, por ello, en diciembre de 2021 la Comisión Europea presentó una Propuesta de Directiva relativa a la mejora de las condiciones laborales en el trabajo en plataformas digitales. Una norma sobre la cual el Consejo de la UE acordó su posición en junio pasado.

Esta propuesta define como «plataforma digital de trabajo» a toda persona física o jurídica que preste un servicio en el que se cumplen todos los requisitos siguientes: a) el servicio se presta, al menos en parte, a distancia por medios electrónicos, como un sitio web o una aplicación para dispositivos móviles; b) se presta a petición de un destinatario del servicio; c) implica, como elemento necesario y esencial, la organización del trabajo realizado por personas físicas a cambio de una remuneración, con independencia de que ese trabajo se realice en línea o en un lugar determinado y, d) implica la utilización de sistemas automatizados de supervisión o toma dedecisiones.

Las dos finalidades principales de esta norma son, por una parte, ayudar a determinar la situación laboral correcta de las personas que trabajan para las plataformas digitales (si son personal laboral o autónomos por cuenta propia, y establecer las primeras normas de la UE sobre el uso de la inteligencia artificial en el lugar de trabajo).

En particular, sobre este segundo punto, se trata de que uno de los aspectos más relevantes de estas plataformas es que utilizan algoritmos para la gestión de los recursos humanos, en particular para organizar y gestionar a las personas que realizan el trabajo a través de sus aplicaciones o sitios web. Dado que estas personas a menudo carecen de información sobre cómo funcionan los algoritmos y cómo se toman las decisiones, la Directiva tiene por objeto: aumentar la transparencia en relación con el uso de algoritmos por parte de las plataformas digitales de trabajo; garantizar la supervisión humana de las condiciones de trabajo y reconocer el derecho a impugnar las decisiones automatizadas (tanto a los trabajadores por cuenta ajena como a los verdaderos autónomos).

Por eso tuvo particular interés la sesión que organizó recientemente el IE Law School, titulada “Hacia una regulación europea del trabajo en plataformas”.

En ella, Anna Ginès, profesora de ESADE y Román Gil, socio de Sagardoy, moderados por Antonio Aloisi, Assistant Professor de IE Law School, analizaron los aspectos más relevantes de esta futura regulación.

Tras la presentacion del tema a cargo del profesor Aloisi, Román Gil abordó los aspectos más problemáticos, desde el punto de vista estrictamente laboral, de la actividad de los trabajadores de estas plataformas, subrayando que se trata de una cuestión sometida a intensos condicionantes emocionales, que complican su análisis. Por ello, acudiendo a los principios, recordó que, por una parte, el Derecho del trabajo es un ordenamiento que regula una relación entre partes situada en diferente posición, orientado a proteger tanto a las personas como a las empresas, que actúa también como factor de equilibrio social, previeniendo el conflicto.

En opinión de Gil, España, que se anticipó a otros países en la regulación del uso de los algoritmos por las empresas con la Ley 12/2021, de 28 de septiembre, conocida como Ley Rider, se precipitó al introducir una regulación que, en realidad, considera que no regula casi nada. Por el contrario, la propuesta de Directiva, partiendo de una parecida política de presunciones, concreta más sus elementos.

Por su parte, tal como explicó la profesora Ginès en su exposición inicial, estamos ante la primera propuesta de regulación de la IA en el ámbito laboral, por lo que puede servir de precursora para la regulación en otros ámbitos específicos.

Los riesgos que plantea la gestión algorítmica del trabajo en plataformas

Ginès destacó a continuación que la tecnología ha introducido en este tipo de trabajos elementos que hasta entonces eran ajenos a la relación laboral. En concreto, la gestión algorítmica como indicio de subordinación (que, junto con la dependencia, es uno de los elementos caracterizadores de la relación laboral).

Este modelo de gestión significa, de entrada, que la actividad pasada de las personas, transformada en datos, va a ser analizada por los algoritmos, para condicionar su actividad laboral futura.

Por ello, el Capítulo III de la propuesta de Directiva se dedica, íntegramente, a la regulación de la gestión algorítmica del trabajo realizada por las plataformas.

Hay que partir de la consideración de que este tipo de gestión plantea una serie de riesgos.

En primer lugar, el de la discriminación por los sesgos que pueden aparecer en los datos utilizados o en los algoritmos utilizados.

Resultan paradigmáticos, en este sentido, la sentencia del tribunal de Bolonia de 31 de diciembre de 2020, en el caso Deliveroo (que apreció la existencia de discriminación laboral ejecutada a través de un algoritmo) y el caso del sistema de reconocimiento facial de Uber, incapaz de reconocer a las personas transgénero (que suspendía la cita concertada por no ser capaz de asignar un sexo a la persona que quería utilizar el servicio).

En segundo lugar, el riesgo de control o monitoreo constante que permiten los actuales sistemas de geolocalización, reconocimiento facial o control digital, con las implicaciones que plantean en cuanto a la intimidad y la protección de datos personales de los trabajadores.

El tercer riesgo es el de la inseguridad derivada de la propia gestión algorítmica, a causa de sus características de falta de transparencia sobre las variables utilizadas (que se traduce en inseguridad para los trabajadores), la posible modificación de los algoritmos a criterio e interés del empleador y sus consecuencias sobre el tiempo de trabajo y la retribución.

Por último, hay que considerar también el impacto de este modelo de gestión sobre la seguridad y salud de las personas, en particular debido a que el mayor control de la productividad que permiten se traduce en una intensificación del ritmo de trabajo por parte de los empleados, por el riesgo que quedar en evidencia o en peor situación frente a sus compañeros, que incrementa el riesgo de accidentes y riesgos psicosociales.

Las nuevas medidas que va a implantar la Directiva

Como hemos indicado, el Capítulo III de la propuesta introduce una amplia regulación de la gestión algorítmica que realizan las plataformas, cuyas principales notas son las siguientes:

1. Limitación en la posibilidad de tratamiento de datos personales

No se podrán tratar datos sobre las emociones, conversaciones privadas, ni fuera de las horas de trabajo.

2. Se incrementa la transparencia algorítmica, por medio de:

a. El establecimiento de un derecho de obligación inicial por parte de la empresa sobre la utilización de sistemas algorítmicos, máximo en el primer día de trabajo.

En su virtud, se deberá informar a los trabajadores sobre las condiciones objetivas del control y evaluación; las variables concretas que se tendrán en cuenta y su ponderación relativa. Esta información se deberá facilitar en un formato claro, conciso e inteligible, pero no implica el deber de informar sobre el código fuente del algoritmo.

b. Un derecho ex poste a la explicación de las decisiones algorítmicas adoptadas

Esto incluye la obligación de designar una persona (“humana”) de contacto y de una declaración escrita sobre los motivos de la suspensión, cierre de la cuenta o cambio de status.

c. Un derecho de revisión de la decisión adoptada, que incluya una respuesta clara y fundamentada, o una rectificación o compensación adecuadas.

d. La obligación de informar a los representantes legales de los trabajadores, con carácter previo a su introducción, de la aplicación de algoritmos para la gestión laboral, y de la existencia de dichos sistemas.

3. La evaluación y supervisión humana de los sistemas automatizados de toma de decisión

Esto incluye la obligación de evaluar regularmente el impacto de estos sistemas de decisión automatizada y la prohibición de los sistemas que pueden ejercer una presión indebida o pongan en riesgo la salud física o mental de los trabajadores.

En resumen, concluyó la profesora Ginès, se trata de una normativa que en algunos aspectos va más allá de lo dispuesto por el Reglamento General de protección de datos (LA LEY 6637/2016) en cuanto al tratamiento de los datos personales de los trabajadores de estas plataformas, por cuanto incluye un derecho de información sobre decisiones semiautomatizadas o parcialmente dependientes de sistemas automatizados, a diferencia del artículo 22 del RGPD (LA LEY 6637/2016) que solo se refiere a las decisiones adoptadas exclusivamente en base a estos sistemas.

Además, introduce un derecho de información colectiva, no solo individual en relación con estos tratamientos y decisiones, y exige una mayor concreción de la información facilitada, lo que incrementará la seguridad jurídica de los trabajadores.

Con todo, señaló también, va a haber que avanzar más en la gestión algorítmica del trabajo, pues esta propuesta de Directiva se refiere solo a las plataformas, sin tomar en consideración a las empresas de carácter tradicional, pero que también pueden recurrir a estos recursos algorítmicos para la gestión del trabajo.

Queremos saber tu opiniónNombreE-mail (no será publicado)ComentarioLA LEY no se hace responsable de las opiniones vertidas en los comentarios. Los comentarios en esta página están moderados, no aparecerán inmediatamente en la página al ser enviados. Evita, por favor, las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, sean dirigidos al autor de la página o a cualquier otro comentarista.
Introduce el código que aparece en la imagencaptcha
Enviar
Scroll