VALENCIA | SOCIEDAD

Los riesgos laborales de los algoritmos, la principal carencia de la nueva regulación europea sobre Inteligencia Artificial

ELPERIODIC.COM - 17/01/2022

Una investigación de Adrián Todolí, profesor de Derecho del Trabajo de la Universitat de València (UV), analiza los peligros específicos para la salud de las trabajadoras y los trabajadores causados por los algoritmos en el ámbito laboral. Entre ellos, la monitorización y sentirse observado, la intensificación del trabajo causada por las decisiones tomadas por software, la discriminación a pesar de la aparente neutralidad algorítmica o posibles errores de funcionamiento. Todolí propone una normativa específica europea en protección de estos riesgos laborales, en un sistema cada vez más impregnado por la inteligencia artificial (IA).

El estudio, publicado en la revista internacional de Economía y Derecho Transfer, señala los riesgos específicos para la salud de las plantillas ya que, como especifica el docente, los nuevos métodos de IA carecen de “empatía ni conocimiento de los límites del ser humano”. Tal y como señala su autor, esta es una de las principales carencias de la propuesta de Reglamento por la Comisión Europea sobre IA, que salió a la luz en abril del año pasado y que ahora se está negociando con el resto de autoridades europeas para su aprobación definitiva. En esta línea, en la investigación se enumeran hasta seis grupos de riesgos con sus posibles consecuencias. Un ejemplo es la constante monitorización, lo que puede causar efectos negativos psicológicamente como sentirse siempre observado o invadido por la tecnología. Pero también resalta que los posibles errores de funcionamiento de los algoritmos son uno de los factores que provocan problemas en cuanto a estrés y ansiedad.

Además, otros riesgos que el artículo pone de manifiesto son la reducción de la autonomía de la persona o la intensificación del trabajo –ante la falta de empatía humana–. A esto se añaden los sesgos causados por los algoritmos que, aunque a priori pasan el filtro de la neutralidad, el estudio demuestra que no lo superan. Tal y como ejemplifica Todolí: “para seleccionar a un candidato de un grupo minoritario, un algoritmo de contratación exigirá por defecto más cualidades, aptitudes o conocimientos que los requeridos a un integrante de un grupo mayoritario, simplemente porque es más fácil predecir estadísticamente el comportamiento de un candidato perteneciente a este último grupo”.

Es por ello que el profesor de la UV defiende la necesidad de una regulación específica a nivel europeo para proteger la salud del personal gestionado por IA, ya que “muchos pueden reducirse o evitarse si se tienen en cuenta a la hora de programar un algoritmo”. “Una nueva normativa de este tipo debe estipular que dicha programación tenga en cuenta estos riesgos laborales y de salud, entre ellos el derecho a la intimidad. De la misma manera que los supervisores tienen que recibir formación en materia de prevención de riesgos para poder realizar su trabajo, el algoritmo también debe estar programado para sopesarlos”, concreta Todolí. Es más, la investigación explicita que la IA debe estar bajo el control humano y aboga por una normativa concreta sobre la seguridad de los algoritmos. “Esto enviaría un mensaje sobre la importancia de los riesgos específicos. Por el contrario, si la Unión Europea no considera oportuno adoptar una nueva normativa en este ámbito concreto, se podría trasladar el mensaje contrario y plasmar que los algoritmos no provocan riesgos para la salud, cuando no es así”, sentencia el experto. En esta línea, el docente también hace mención a la relación del artículo con la reciente aprobación de la Agencia Estatal de Supervisión de la Inteligencia Artificial y control de los algoritmos en España, incluida en los Presupuestos Estatales para 2022.