Crític Cerca
Reportatges

Algoritmes i departaments de recursos humans: una combinació de risc

Advocats laboralistes i expertes en intel·ligència artificial demanen que es limiti l'ús d'aquesta tecnologia per acomiadar i contractar treballadors

22/11/2023 | 06:00

Un jove fent ús de ChatGPT / AINA MARTÍ (ACN)

La sortida de ChatGPT al mercat, a finals de 2022, va ser un gran catalitzador del debat sobre la intel·ligència artificial. Han corregut rius de tinta, documentals i exposicions sobre els perills i les oportunitats d’aquesta tecnologia. En l’àmbit laboral, la discussió s’ha centrat en si aquestes noves eines provocaran l’acomiadament massiu de treballadors que ja no podran igualar el rendiment de les màquines. El cert, tanmateix, és que l’ús d’algoritmes per part de les grans empreses no és nou. Passi el que passi amb la possible substitució de treballadors, aquests mateixos algoritmes ja fan funcions d’avaluació i control per als departaments de recursos humans.

“La diferència és que ara el sistema ja pot prendre una decisió per si mateix i enviar la carta d’acomiadament i donar de baixa de la Seguretat Social sense cap valoració humana”, explica Judith Membrives i Llorens, tècnica de polítiques digitals de Lafede.cat, sobre l’impacte dels avenços en l’últim any de la intel·ligència artificial. Mentre el debat públic gira al voltant de si algunes feines desapareixeran, les empreses ja s’estan preparant per fer que aquestes noves tecnologies assumeixin funcions de control i seguiment en tots els sectors. Segons dades de l’Institut Nacional d’Estadística (INE), un 7,35% de les empreses catalanes ja usava sistemes d’intel·ligència artificial per a la gestió de recursos humans o per a la contractació l’any 2021. “El rendiment dels treballadors, sobretot en sectors com el comerç al detall, fa molts anys que es mesura amb algoritmes”, recorda Membrives.

Un 7,35% de les empreses catalanes ja usava intel·ligència artificial per als recursos humans l’any 2021

L’ús d’aquestes eines es justifica per la seva capacitat suposadament objectiva de valorar el rendiment de cada treballador a partir de grans volums de dades. Ara bé: aquestes dades poden incloure biaixos que atempten contra el principi d’igualtat i no-discriminació. Sergio Maldonado, advocat del Col·lectiu Ronda, explica que “el problema és si es condiciona l’algoritme amb dades relacionades amb situacions personals prèvies, com ara temes relacionats amb la salut, l’edat o el gènere”. Per exemple: un algoritme que valori la productivitat de la seva plantilla incloent-hi criteris com els dies de baixa mèdica, o que calculi les probabilitats de futures baixes mèdiques basant-se en dades d’altres treballadors amb un perfil semblant. 

Sergio Maldonado valora que l’ús d’un algoritme d’aquestes característiques seria contrari al dret fonamental a la integritat física, però que seria molt difícil demostrar-ho: “Les comunicacions escrites d’acomiadament no ens permeten esbrinar si el procés té un origen d’ús d’intel·ligència artificial”. En aquests casos, no hi ha gairebé cap control per part dels treballadors sobre quines dades alimenten els algoritmes utilitzats. I això fa que costi molt valorar si hi ha hagut una discriminació efectiva en la decisió d’un acomiadament, un ascens, un canvi d’horari o qualsevol canvi en les condicions laborals d’un treballador.

Per posar-hi remei, Maldonado troba necessari que es creï un registre públic obligatori on les empreses informin que fan ús d’algoritmes en la gestió dels recursos humans: “En aquests moments, les empreses han de comunicar a l’Agència Estatal de Protecció de Dades si tenen arxius amb dades personals, qui els gestiona, qui n’és el propietari… I, en canvi, ningú ha de comunicar que utilitza les dades per alimentar un sistema d’intel·ligència artificial, ni quins són els seus algoritmes o criteris”, explica Maldonado.

Judith Membrives demana una avaluació prèvia d’impacte de qualsevol algoritme que pugui afectar els drets fonamentals

En la mateixa línia, Judith Membrives demana que es garanteixin uns mínims de transparència i supervisió humana de les decisions: “Cal saber qui pren les decisions i amb quins criteris”. Com a mesures complementàries, Membrives reclama “que les persones siguin informades que estan sent sotmeses a aquest sistema i dels mecanismes que tenen per apel·lar contra qualsevol decisió de l’algoritme”. En el camp de la prevenció, l’experta en polítiques digitals reclama “fer una avaluació prèvia d’impacte en drets fonamentals de qualsevol algoritme que pugui afectar-los”, que ha de ser assumit per les administracions públiques i amb la participació dels col·lectius afectats, com ara els treballadors d’una empresa que vol implantar-ho”.

Primeres normes a Espanya i als Estats Units

Alguns governs ja han començat a prendre mesures per limitar els perills dels algoritmes. L’aprovació de la llei rider, pensada per posar fi a l’ús de la figura dels falsos autònoms en plataformes com Glovo, havia de ser un punt d’inflexió en aquest àmbit. La redacció de la llei inclou una clàusula que afirma que els representants dels treballadors tindran dret a ser informats “dels paràmetres, les regles i les instruccions en els quals es basen els algoritmes o sistemes d’intel·ligència artificial que afecten la presa de decisions que poden incidir en les condicions de treball”.

La vicepresidenta segona del Govern espanyol i ministra de Treball, Yolanda Díaz/ IVAN GIMÉNEZ

Ara bé, aquesta obligació no s’està aplicant en la majoria dels casos. L’advocat Sergio Maldonado lamenta que “si no hi ha representants dels treballadors a l’empresa, si no hi ha comitè d’empresa, no es comunica a ningú”. A banda, Maldonado lamenta que “aquest text no serveix per adaptar-se a tota mena d’activitat empresarial, com ara un forn de pa, sinó que és molt concreta de la forma de treballar dels repartidors a domicili”. En canvi, per al Govern espanyol, l’obligació sí que és vigent en tots els sectors. En declaracions a un reportatge d’elDiario.es, fonts del Ministeri de Treball recordaven que “aquest dret és aplicable a totes les empreses i no només a les de repartiment a través de plataformes digitals”.

A més, el Ministeri de Treball espanyol va elaborar una guia informativa en què concretava en quins casos es podia utilitzar aquesta tecnologia i de quina manera. L’escrit, que no és vinculant, posa èmfasi en el fet que l’empresa està obligada a negociar com s’usarà l’algoritme abans d’obrir un procés d’acomiadament col·lectiu, com en els expedients de regulació d’ocupació.

En qualsevol cas, un dels passos clau en la definició dels límits als algoritmes a tota la Unió Europea serà la nova directiva sobre intel·ligència artificial. Els estats membres n’estan negociant la redacció i s’espera la primera aprovació del text a finals d’aquest 2023.

En l’àmbit internacional, una de les legislacions més avançades en aquest àmbit és la de la ciutat de Nova York. Els algoritmes emprats per les empreses i les agències de la zona hauran de superar una auditoria externa abans de posar-se en marxa. L’anàlisi haurà de demostrar que no es reprodueixen biaixos masclistes ni racistes en l’algoritme. A banda, l’empresa haurà de publicar al seu lloc web un resum dels resultats de l’auditoria i del tipus i la font de les dades que alimenten l’algoritme. La companyia, a més, haurà  de notificar als candidats i als treballadors que es farà servir aquest programa per avaluar-los.

Els convenis col·lectius comencen a posar-hi límits

En tot cas, la traducció més concreta que s’està fent dels límits a aquesta tecnologia és als convenis col·lectius. Fins ara, només una petita part d’aquests textos recullen observacions sobre els algoritmes. Un dels exemples sectorials més innovadors és el conveni de la banca, que fixa que els treballadors tenen el dret que no es prenguin decisions que els afectin de manera totalment automatitzada, i també que l’empresa haurà de fer constar l’ús d’aquests sistemes als empleats si s’apliquen a l’àmbit dels recursos humans. En l’àmbit d’empresa, destaca el cas de la plataforma de repartiment de menjar a domicili Just Eat, que concreta la creació d’una Comissió Algoritme, amb representants dels treballadors i de l’empresa, per fer seguiment de l’ús d’aquesta eina. 

La inclusió d’aquestes clàusules en la negociació entre sindicats i empreses obre la porta al debat de si aquestes tecnologies també podrien servir per millorar les condicions laborals. Per a Sergio Maldonado, no hi ha espai per aconseguir-ho: “De moment, tots els escenaris que ens trobem relacionen la intel·ligència artificial amb formes de control, sanció i parametrització per interès empresarial”. En canvi, Judith Membrives valora que “podrien servir per controlar el compliment dels acords laborals, les hores treballades o els plans d’igualtat de les empreses”.

.

Si els pica... Que es rasquin!

Suma't al periodisme contra el poder

Subscriu-t'hi ara!

Amb la quota solidària, rebràs a casa la revista 'No puc més' i la pròxima que publiquem (juny 2024)

Torna a dalt
Aquest lloc web utilitza cookies pròpies i de tercers d'anàlisi per recopilar informació amb la finalitat de millorar els nostres serveis, així com per a l'anàlisi de la seva navegació. Pot acceptar totes les cookies prement el botó “Accepto” o configurar-les o rebutjar-ne l'ús fent clic a “Configuració de Cookies”. L'usuari té la possibilitat de configurar el seu navegador per tal que, si així ho desitja, impedexi que siguin instal·lades en el seu disc dur, encara que haurà de tenir en compte que aquesta acció podrà ocasionar dificultats de navegació de la pàgina web.
Accepto Configuració de cookies