Borrar
Garbiñe Biurrun intervino ayer en las XII Jornadas Laboralistas del Colegio de Graduados Sociales de Gipuzkoa José Mari López
«La IA tiene sesgos discriminatorios con las mujeres a la hora de contratarlas»
Garbiñe Biurrun | Presidenta de la Sala de lo Social del TJPV

«La IA tiene sesgos discriminatorios con las mujeres a la hora de contratarlas»

La magistrada explica que hay un reglamento europeo que fija criterios de no agravio y que está prohibida o muy limitada la utilización de la IA para el control de las emociones en el trabajo

Pilar Aranguren

San Sebastián

Sábado, 23 de noviembre 2024, 08:58

La presidenta de la sala de lo Social del Tribunal Superior de Justicia del País Vasco, Garbiñe Biurrun, apunta que en muchos de los despidos que se realizan, seguramente, se está utilizando ya la inteligencia artificial, como se está haciendo a la hora de contratar empleados. Un uso de los algoritmos, indica, que tiene sesgos discriminatorios, porque estos sistemas se alimentan de esquemas y datos que provocan agravios. Biurrun habló de estas cuestiones en las XII Jornadas Laboristas que organiza el Colegio de Graduados Sociales de Gipuzkoa en Donostia.

– ¿Qué problemas puede generar la utilización de la Inteligencia Artificial en las relaciones laborales?

– Lo que más preocupa es precisamente en lo relativo a la contratación, es decir, en el acceso al empleo, y también en las extinciones de contratos o despidos.

¿Por qué?

– Porque se ha constatado que la IA puede tener o tiene sesgos de carácter discriminatorio. Una cuestión que se ha comprobado en la contratación. De hecho, la Agencia Estatal de Empleo de Austria detectó que su algoritmo asignaba a las mujeres una puntuación inferior a la de hombres con la misma experiencia y cualificación profesional. La edad puede ser otro sesgo y otras cuestiones.

–El algoritmo reproduce los esquemas que se le introducen o de los que bebe, ¿no?

–Así, es. Ese algoritmo se ha alimentado con datos que en sí mismos contienen una base discriminatoria, por ejemplo, con precedentes. Y es que la inteligencia humana natural ha tendido a contratar más hombres que mujeres o más jóvenes que mayores. Por lo tanto, no es el sistema el que actúa con sesgo, sino que actúa en función de los datos que se le proporcionan. Eso ocurre de momento, porque cuando la inteligencia sea pensante será capaz de crear pensamiento por sí misma. Eso será en otro momento; ahora no cabe hablar de ello.

–¿Se están poniendo límites o controles a esos sesgos?

–Todo tipo de discriminación, bien sea fruto de una decisión humana o de una decisión humana basada en inteligencia artificial está regulada. La Ley para la Igualdad Integral y no Discriminación sí que prevé expresamente que se minimizarán los sesgos de los sistemas de inteligencia artificial. Está también la ley de protección de datos y un nuevo reglamento europeo, de junio de este año, que fija los principios éticos que deben regir la IA, entre ellos, la no discriminación y la equidad, entre otros.

Litigiosidad

«En muchos despidos objetivos o colectivos habrá habido detrás el uso de la IA, aunque la responsable es la empresa»

–¿Está generando ya litigiosidad esa cuestión?

–No hay muchos casos. Yo conozco muy poquitos. De todos modos, seguramente en muchos despidos objetivos o colectivos que analizamos habrá habido detrás el uso de la IA. Pero en cualquier caso, la responsable es la empresa.

–¿Está obligada la empresa a informar a los trabajadores del uso de la IA por ejemplo en despidos o expedientes de regulación de empleo?

–Si se ha basado en algoritmos tiene que haberlo comunicado previamente a los trabajadores y a sus representantes.

–¿Los sesgos son siempre negativos?

–No tiene que ser en absoluto más discriminatorio o más sesgado un sistema de inteligencia artificial que la decisión exclusivamente humana. En este sentido, hay una sentencia muy interesante del Juzgado de lo Social número 5 de Vigo, de 2022. Una sindicalista concurrió en un proceso de selección de promoción interna para un puesto que era de méritos. En esa fase, en la que intervino la IA, determinó que era la mejor candidata. Sin embargo, en la entrevista personal posterior la empresa decidió adjudicar el puesto a otro candidato. Ella recurrió y le dieron la razón. La sentencia dejaba claro que había habido un sesgo discriminatorio, en este caso no de la inteligencia artificial, sino de la humana. Se declaró que hubo una vulneración de derechos, que tenía derecho al puesto y a una indemnización.

–Depende entonces del uso que se haga de la inteligencia artificial.

–Puede ser para bien o para mal. La IA tiene también grandes riesgos. De hecho, en el reglamento de inteligencia artificial que se aprobó en junio pasado se hace una clasificación de los sistemas por riesgos: leve, moderado, alto riesgo e inaceptables. Y hay algunos sistemas que se dice que son inaceptables y que se pueden estar utilizando ya, como el reconocimiento facial o el de emociones en el trabajo. Los gestos que hagamos pueden ser estudiados por el sistema artificial y determinar si estamos cansados, aburridos, asqueados.... Estaría prohibido o muy limitado.

–Se pueden detectar también incumplimientos de los trabajadores a través de la IA. ¿Puede colisionar con los derechos de los trabajadores?

–Habría que ver cómo está actuando el sistema. Qué es lo que mide y qué es lo que se va a computar para exigir una determinada productividad, por ejemplo.

Controles

«España es el primer país de la UE que ha creado una agencia de supervisión de la IA, con competencia para limitar su uso»

–¿Existen organismos estatales que regulen o supervisen estas cuestiones?

– Existe ya una agencia española de supervisión de IA que está funcionando desde junio de este año. Es el primer país de la UE que ha creado una agencia de esta naturaleza. Tiene funciones de desarrollo de todo el reglamento de la IA y determinará todas las cuestiones referidas a los niveles de riesgo de los sistemas y, en su caso, tiene competencia para prohibir e introducir limitaciones a alguno.

–En una reciente sentencia de su sala se condenó a una empresa por investigar con un detective a un empleado de baja que jugaba al golf «por vulneración de intimidad». Se fallaba que «en ningún caso se podrá investigar la vida íntima de las personas que transcurra en sus domicilios u otros lugares reservados». ¿Si hubiera jugado en un campo de golf público hubiera sido válida la prueba?

– En principio sí, pero con algún matiz. La empresa tiene que justificar, por ejemplo, de entrada por qué ha puesto esa vigilancia: bien porque tenían sospechas o porque le habían visto, digamos, corriendo maratones cuando una persona está de baja y le duele el pie.

–¿Siempre hay que justificar el uso de un detective?

–Si la parte que defiende al trabajador cuestiona por qué se ha utilizado la prueba, sí. Porque, a lo mejor hay un indicio discriminatorio. Es decir, por qué a este trabajador sí y a otro no.

–Se están fijando ya indemnizaciones por despido improcedente superiores a las que marca la ley. ¿Se están generalizando?

– A la sala del TSJPV están llegando todavía pocos casos, porque los juzgados tienen en este momento mucha carga de trabajo. Creo que el Tribunal Supremo resolverá algo sobre esto en no mucho tiempo. Aclarará de entrada si cabe o no establecer esa indemnización adicional con base a textos normativos que son la Carta Social Europea y el Convenio 158 de la OIT.

Esta funcionalidad es exclusiva para suscriptores.

Reporta un error en esta noticia

* Campos obligatorios

diariovasco «La IA tiene sesgos discriminatorios con las mujeres a la hora de contratarlas»