"Nuevo marco normativo para el reto tecnológico"
Por Henar Álvarez Cuesta. Catedrática de Derecho del Trabajo y de la Seguridad Social de la UCLM
Ya es muy común hablar del impacto de la Inteligencia Artificial en el trabajo, bien porque disminuye o aumenta el volumen de empleo, porque modifica las tareas a realizar, rediseña los puestos de trabajo o, en fin, es utilizada como herramienta a la hora de tomar decisiones referidas a la contratación y selección de personas trabajadoras, promoción, formación, evaluación y prevención de riesgos laborales, del desempeño y rendimiento, determinación de la jornada, modificación de condiciones o extinción de la relación laboral.
De poner el foco en este último impacto, las decisiones (predicciones, sugerencias o evaluaciones) adoptadas por una IA no son objetivas, sino que presentan riesgos vinculados a los sesgos que incorporan pudiendo vulnerar derechos fundamentales, especialmente la no discriminación y el derecho a la intimidad. Así, “dichos sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo contra las mujeres, determinados grupos de edad, las personas con discapacidad o las personas de orígenes raciales o étnicos concretos o con una orientación sexual determinada, durante todo el proceso de contratación y en la evaluación, promoción o retención de personas en las relaciones contractuales de índole laboral”, y “pueden socavar sus derechos fundamentales a la protección de los datos personales y a la intimidad” (Considerando 57 del Reglamento de IA).
Regulación europea
Consciente de los desafíos y oportunidades que acarrea, la Unión Europea ha afrontado el impacto de la Inteligencia Artificial y ha sido pionera en la adopción de un marco regulador, el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, denominado Reglamento de Inteligencia Artificial, publicado el 12 de julio de 2024.
Su enfoque está basado en el riesgo, motivo por el cual, dentro de la clasificación que efectúa, califica como de alto riesgo los utilizados en “los ámbitos del empleo, la gestión de los trabajadores y el acceso al autoempleo, en particular para la contratación y la selección de personal, para la toma de decisiones que afecten a las condiciones de las relaciones de índole laboral, la promoción y la rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales y para la supervisión o evaluación de las personas en el marco de las relaciones contractuales de índole laboral, dado que pueden afectar de un modo considerable a las futuras perspectivas laborales, a los medios de subsistencia de dichas personas y a los derechos de los trabajadores” (Considerando 57).
En virtud de tal calificación, el Reglamento de IA impone parámetros a cumplir tanto por quienes diseñan estos sistemas como por las empresas que los aplican en la gestión de personas trabajadoras; y precisamente la negociación colectiva puede encontrar un amplio campo de juego en la especificación y desarrollo de estos principios en cada ámbito productivo concreto, con la finalidad de evitar los sesgos, luchar contra la discriminación algorítmica y proteger la intimidad de quienes prestan servicios.
Derecho de información de las personas representantes en el ámbito laboral
Esta norma establece un derecho de información sobre el uso de un sistema de IA a los representantes de las personas trabajadoras (también de carácter individual a cada persona empleada) que se ha de materializar antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo (art. 26.7 Reglamento IA).
El convenio podrá concretar esa obligación, por ejemplo, potenciando el derecho de consulta y especificando su tenor, incluyendo la participación en la evaluación de riesgos aparejada. En cuanto a su contenido, podría reflejar el principio de transparencia regulado en el art. 13, cuyo apartado 3 detalla que las instrucciones de uso que han de entregarse a la empresa por el desarrollador contendrán al menos, y por cuanto aquí importa, la siguiente información: las características, capacidades y limitaciones del funcionamiento del sistema de IA de alto riesgo, y en particular, su finalidad prevista. También el nivel de precisión (incluidos los parámetros para evaluarla), solidez y ciberseguridad con respecto al cual se haya probado y validado el sistema de IA de alto riesgo y que puede esperarse, así como cualquier circunstancia conocida y previsible que pueda afectar al nivel de precisión, solidez y ciberseguridad esperado.
De igual modo, la norma tiene en consideración cualquier circunstancia conocida o previsible, asociada a la utilización del sistema de IA de alto riesgo conforme a su finalidad prevista o a un uso indebido razonablemente previsible, que pueda dar lugar a riesgos para la salud y la seguridad o los derechos fundamentales; las capacidades y características técnicas del sistema de IA de alto riesgo para proporcionar información pertinente para explicar su información de salida; su funcionamiento con respecto a personas o grupos de personas específicos en relación con los que esté previsto utilizar el sistema; cuando proceda, especificaciones relativas a los datos de entrada, o cualquier otra información pertinente en relación con los conjuntos de datos de entrenamiento, validación y prueba usados, teniendo en cuenta la finalidad prevista del sistema de IA; y, en su caso, información que permita a los responsables del despliegue interpretar la información de salida del sistema de IA de alto riesgo y utilizarla adecuadamente. Dado que el proveedor ha de proporcionar esta información a la empresa que utilice un sistema de IA para gestionar a las personas trabajadoras, el convenio colectivo podría exigir el traslado de esta completa información a la representación de las personas trabajadoras.
"La regulación europea proporciona herramientas para proteger a las personas trabajadoras frente a los riesgos de la IA"
La vigilancia humana del sistema de IA en la empresa
La negociación colectiva también podría regular en cada sector o empresa el principio de supervisión humana de los sistemas de IA que prevé el art. 14 del Reglamento. Este precepto impone a los sistemas de IA de alto riesgo, para considerarlos susceptibles de ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, dotarlos de herramientas de interfaz humano-máquina adecuadas. El objetivo de la vigilancia humana será prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que pueden surgir cuando se utiliza un sistema de IA de alto riesgo conforme a su finalidad prevista o cuando se le da un uso indebido razonablemente previsible.
Las medidas de vigilancia establecidas y acordadas en el convenio han de ser proporcionales a los riesgos, al nivel de autonomía y al contexto de uso del sistema de IA de alto riesgo, de tal modo que las personas físicas a quienes se encomiende la vigilancia humana puedan, en función de las circunstancias y de manera proporcionada a estas:
• Entender adecuadamente las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y poder vigilar debidamente su funcionamiento, por ejemplo, con vistas a detectar y resolver anomalías, problemas de funcionamiento y comportamientos inesperados.
• Ser conscientes de la posible tendencia a confiar automáticamente o en exceso en la información de salida generada por un sistema de IA de alto riesgo (sesgo de automatización).
• Interpretar correctamente la información de salida del sistema de IA de alto riesgo, teniendo en cuenta, por ejemplo, los métodos y herramientas de interpretación disponibles.
• Decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o desestimar, invalidar o revertir la información de salida que este genere.
• Intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema pulsando un botón de parada o mediante un procedimiento similar que permita que el sistema se detenga de forma segura.
Teniendo en cuenta las posibilidades de intervención humana para el control de los sistemas de IA, el convenio colectivo podría especificar el elegido y atribuirlo a la comisión paritaria o a una especialmente creada para ello, sin perjuicio de recordar las posibilidades de vigilancia y control que recaen sobre la representación unitaria y sindical y que son de aplicación a las discriminaciones ocasionadas por estos sistemas en el marco de la relación laboral.
Por todo ello, aun con sus sombras, la regulación a nivel europeo de la IA proporciona herramientas y abre espacios a la negociación colectiva para proteger a las personas trabajadoras frente a los riesgos de la IA en el ámbito laboral. ■