Empresas tendrán que informar sobre sus algoritmos
La ley 'rider' despliega nuevas armas: Trabajo presenta la guía con la que las empresas tendrán que informar sobre sus algoritmos a sus trabajadores
- El Ministerio de Trabajo ha presentado hoy la guía que empresas y representantes de trabajadores seguirán para auditar los algoritmos con implicaciones laborales.
- La ley rider ya planteó en su texto, en vigor desde hace un año, esa necesidad: ahora se explicará cómo se debe hacer.
- Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.
Más de un año después de la entrada en vigor de la ley rider, el Ministerio de Trabajo ha presentado hoy la guía sobre las repercusiones laborales de los algoritmos.
Esta ley rider, que en realidad es una disposición adicional al Estatuto de los Trabajadores, no legisla únicamente sobre el modelo laboral que compañías como Glovo han importado a España. La norma también prevé la obligatoriedad de que las empresas informen a representantes de los trabajadores sobre qué algoritmos emplean sobre sus plantillas.
Así, las compañías tendrán que informar a las secciones y delegados sindicales y a los comités de empresa de "los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial" que afecten "a la toma de decisiones que pueden incidir en las condiciones de trabajo", o "el acceso y mantenimiento del empleo".
Desde un algoritmo que se encargue de repartir los horarios o los días de vacaciones en una oficina, al algoritmo que muestre candidatos en plataformas de búsqueda de empleo a las empresas solicitantes. Todos esos códigos tendrán que ser debidamente auditados, y la guía que el Ministerio de Trabajo ha presentado es un primer paso para ello.
"Estamos dando las herramientas al mundo del trabajo para que se defienda. Siempre estamos a favor de la tecnología, y los algoritmos, pero para erradicar las brechas", ha señalado en el acto de presentación la vicepresidenta segunda del Gobierno, Yolanda Díaz.
"Nada de ludismos del siglo XXI. Queremos mejorar la vida de la gente. Hablar de regulación algorítmica es hablar de combatir la desigualdad y la precariedad", ha remarcado la vicepresidenta segunda.
El documento ha sido elaborado por un comité de expertos formado por Gemma Galdon, fundadora de Eticas, una fundación y consultora especializada en justicia algorítmica. El grupo también está integrado por los expertos en Derecho del Trabajo Anna Ginès i Fabrellas, Adrián Todolí Signes y Ana Belén Muñoz Ruiz, además de Javier Sánchez Monedero, experto en Inteligencia Artificial.
Galdon en su presentación ha remarcado que actualmente estamos viviendo una situación similar a la de la Revolución Industrial en las fábricas del siglo XIX, cuando el uso de los relojes se empezó a extender y, por lo tanto, los trabajadores podían tener un control de su jornada laboral.
Sin embargo, como ha señalado la experta, los empresarios de aquellas fábricas manipulaban las manecillas de aquellos relojes, por lo que los trabajadores no sabían qué hora era exactamente. Según Galdon, algo similar sucede hoy en día con los algoritmos opacos.
"El reloj era una tecnología que podía permitir proteger la jornada laboral, pero en manos de sola una parte de la relación aboral sin la capacidad de control de los trabajadores se convertía en una herramienta de horas extras descontroladas", ha comentado Galdon.
"Estamos en la misma situación. Ahora mismo se están tocando los algoritmos, se está jugando para que haya una opacidad en relación al trabajador de qué es lo que está ocurriendo".
Además, en el documento presentado hoy, el Ministerio abre la puerta a una modificación futura del Estatuto de los Trabajadores, para introducir la obligación de la empresa no solo de informar, sino también de negociar con los representantes legales de la plantilla las variables, parámetros u otras características del algoritmo que afectan a sus condiciones de trabajo.
Aunque la ley rider lleva un año en vigor, hace pocas semanas medios como elDiario.es informaban sobre cómo las empresas se habían negado a comunicar esos algoritmos a los representantes de los trabajadores.
Uno de los problemas que planteaba la introducción de ese derecho de información algorítmica en la ley rider, es que no concretaba qué tipo de información ni cuanta se podía solicitar. Además, este derecho a la información podría entrar en conflicto con otros derechos como el de la Propiedad Intelectual o el Derecho empresarial.
Así nace esta guía práctica que también servirá como "herramienta" para aclarar "la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral".
En el documento presentado hoy, se recogen una serie de preguntas para recabar esa información sobre los algoritmos, como por ejemplo, ¿qué tipo de tecnología utiliza el algoritmo?, si genera un modelo de "caja negra", si es de aprendizaje continúo y también quién ha desarrollado el modelo.
La herramienta está dividida en 4 epígrafes. El primero, recaba información general sobre el uso de algoritmos en la toma de decisiones automatizadas, con preguntas como la que se recogía unas líneas más arriba.
El siguiente apartado sirve para conocer la lógica y el funcionamiento de cada algoritmo, que permite conocer las diferentes variables y parámetros que utiliza, así como los tipos de perfiles que elabora.
El tercer apartado sirve para entender las consecuencias que pueden derivarse de la decisión automatizada, como por ejemplo, en materia de igualdad o si existen problemas de sesgo. Por último, el punto final se refiere a si los trabajadores están al corriente del uso de este tipo de sistemas algorítmicos en su trabajo.
"Muchas veces los propios empresarios van a comprar ciertos algoritmos y necesita saber qué decisiones toman esos algoritmos", apuntaba Galdon. "No queremos el código, queremos conocer los parámetros y las variables", añadía.
Galdon es una de las mayores especialistas españolas en el ámbito de la justicia algorítmica. Con Eticas han publicado ya un observatorio de algoritmos públicos en el que han desentrañado algunos de sus riesgos. Algunos ejemplos son los algoritmos VioGen o el VeriPol.
Este Observatorio de Algoritmos con Impacto Social de Eticas desgranó en un estudio el año pasado cómo VeriPol, un algoritmo que ayuda a determinar si una llamada de emergencia puede ser falsa en función de la síntaxis o las palabras que emplee el denunciante, puede conllevar un riesgo de desprotección a aquellas personas extranjeras que no dominen el español.
En el ámbito laboral, los riesgos que pueden entrañar los algoritmos son múltiples.
Aunque la principal demostración es precisamente aquellas compañías de reparto que cimentan su modelo de negocio mediante procesos automatizados para organizar a sus profesionales, en Europa ya se han visto casos como una aerolínea portuguesa, cuyo algoritmo acabó penalizando a un empleado sin tener en cuenta que muchas de sus bajas habían sido por enfermedad.
0 comments