Las empresas están extendiendo el uso de algoritmos para cuestiones ligadas a las condiciones laborales de sus trabajadores y trabajadoras, como promociones, ascensos, reclutamiento y selección, cálculo de retribuciones, e incluso sobre procesos sancionadores y disciplinarios.

Que tu jefe sea un algoritmo matemático, productos de unas ecuaciones deshumanizadas y carentes de empatía, no exime a estas empresas a de sus responsabilidades laborales legales.

La extensión de estas prácticas entre las medianas y pequeñas empresas empieza a ser preocupante, por eso desde el sindicato UGT, su secretario de Política Sindical, Gonzalo Pino, ha denunciado “la opacidad con la que funcionan estos mecanismos”, en la mayoría de las ocasiones bajo la excusa del secreto empresarial, protección de patentes. Para Gonzalo Pino, la mayoría de las veces estas prácticas resultan “muy complejas de explicar”, y pueden encubrir “tratamientos laborales discriminatorios o, como mínimo, parciales”, aspectos ya demostrados en algunos de los casos, ha señalado.

El sindicato denuncia que hay compañías que toman como dogma inmutable que el funcionamiento de un algoritmo es neutral porque se base en criterios matemáticos, “cuando la experiencia evidencia que dichos procesos pueden atentar contra el principio fundamental de la igualdad de oportunidades”, ha señalado su secretario de Política Sindical.

Los algoritmos se basan en patrones que no están exentos de sesgos humanos

Estos programas informáticos se desarrollan sobre patrones y precedentes, que no tienen que estar exentos de sesgos humanos (por ejemplo, por género, tendencia sexual, raza o religión). Las muestras recopiladas, si no son suficientemente ponderadas con fuentes diversas y equilibradas, pueden contaminar la lógica del proceso hasta convertirla en tendenciosa. En definitiva, Para Gonzalo Pino, “estos sesgos de entrada, lejos de ser ecuánimes, perpetuarían muchos de los estereotipos actuales, fomentando tratamientos personales fuera de nuestro marco legal”, señalado.

El automatismo no exime de responsabilidad

Los sistemas automatizados carecen de las garantías que proporcionan los sistemas tradicionales, como comprensión e interiorización del contexto, empatía, humanidad o responsabilidad directa sobre la decisión tomada. Es decir, “la excusa que plantean algunas empresas, alegando que las ciertas decisiones las toma “una máquina”, una suerte de caja negra impenetrable, no las eximen de responsabilidades”, ha explicado el responsable de Política Sindical de UGT.  Ambos factores (patrones sesgados y decisiones deshumanizadas) representan un auténtico peligro para los derechos fundamentales de los trabajadores, advierte.

La utilización de algoritmos a veces incurren en discriminaciones laborales

El interés comercial u organizativo de una empresa nunca debe primar sobre los derechos legales de los trabajadores. Nunca un algoritmo puede convertirse en tu jefe, ni regir las políticas laborales de las empresas.

La libertad organizativa de una compañía no es un valor superior al principio fundamental de la igualdad de oportunidades. Incluso el novedoso Reglamento de Protección General de Datos consolida la imparcialidad intrínseca de las decisiones que se toman sobre nuestras condiciones laborales, al incluir el derecho a conocer si nuestros datos están siendo tratados de forma “leal y transparente”, en especial cuando se toman decisiones automatizadas, aportando al interesado información sobre la lógica informática (algoritmo) aplicada en cada caso.

Para evitar situaciones que hagan peligrar estos derechos, “UGT defiende la necesidad de construir sistemas algorítmicos abiertos, accesibles y comprensibles, que puedan ser verificados por los trabajadores y sus representantes”, al objeto de comprobar su ecuanimidad, fiabilidad y transparencia, porque la automatización no puede convertirse en sinónimo de oscurantismo e injusticia social, ha concluido Gonzalo Pino, secretario de Política Sindical de UGT.

Dejar respuesta

Please enter your comment!
Please enter your name here

dos × uno =