Pedir opinión al robot

Los asistentes de Inteligencia Artificial ganan peso en procesos de selección y de gestión de equipos

01 marzo 2021 12:14 | Actualizado a 02 marzo 2021 10:20
Se lee en minutos
Participa:
Para guardar el artículo tienes que navegar logueado/a. Puedes iniciar sesión en este enlace.
Comparte en:

Tan solo hace falta seleccionar un perfil público en la red profesional Linkedin, pasarlo por Crystal y decidir si queremos que esta aplicación de Inteligencia Artificial (IA) nos elabore un análisis psicológico de esa persona orientado a integrarlo en un equipo de trabajo, incluirlo en un proceso de selección o venderle algún producto o servicio.

El algoritmo nos dirá cómo trabaja en equipo esa persona, cuáles son sus motivaciones, cómo encaja las críticas, de qué manera es mejor dirigirnos a ella cuando le escribimos un correo electrónico, cómo debe ser una presentación efectiva en Power Point... Crystal es solo un ejemplo de las múltiples herramientas basadas en Inteligencia Artificial que están entrando con fuerza en las áreas de Recursos Humanos y Ventas.

¿Hasta qué punto aciertan? ¿En qué medida son herramientas y hasta dónde podemos hacer que recaiga en ellas la toma de decisiones? ¿Qué derivadas éticas se abren en su adopción creciente a través de aplicaciones de uso masivo, a las que cualquiera puede acceder en un par de clics, en muchos casos de forma gratuita o con periodos de prueba libres?

Jordi Serrano,  fundador de Future for Work Insititute y miembro de la comisión consultiva de la Fundació Factor Humà, piensa que, al margen de que puede haber «mucho humo, porque a cualquier tecnología le ponen hoy la etiqueta de IA», aplicaciones como estas se encuentran «en el centro de la nueva ola de automatización en el mundo del trabajo».

«La IA hace de espejo de lo anterior: si hemos sido xenófobos y machistas, lo copia y amplifica» (Esteve Almirall, ESADE)

«Hay muchos ejemplos de esto -prosigue Serrano-, y últimamente se está evolucionando desde el concepto de que ‘las máquinas nos quitarán el trabajo’ al de ‘máquinas y personas hemos de compartir trabajos’». En este punto, el principal uso que se le está dando a la IA en el campo de los Recursos Humanos es el de la automatización de procesos repetitivos.

El principal uso que se le está dando hoy a la Inteligencia Artificial en el área de los Recursos Humanos es el de la automatización de procesos repetitivos: desde agendar entrevistas de selección hasta revisar curriculums en un primer filtrado masivo.

«Desde agendar entrevistas de selección -explica este profesional de los Recursos Humanos-, a revisar curriculums para hacer un primer filtrado masivo, o herramientas más avanzadas, capaces de analizar videoentrevistas y encontrar patrones a partir de cómo reaccionan los entrevistados en sus gestos y su voz».

En la base de todo están los datos. «El paradigma principal -explica Sara Suárez, profesora de ESIC Business & Marketing School en programas de master y postgrado- es el análisis de datos masivos, con cuestiones computables, traducible en números. Pero, en cosas como el hecho de decidir si una persona es apta para un trabajo o no, eso no es tan computable».

«Es muy distinto que un robot ayude a mover cajas a que tome decisiones que afecten a una vida» (Sara Suárez, ESIC)

La consecuencia es que, «cuando una IA se enfrenta a la incertidumbre, se basará en probabilidades y lo hará con la mayor cantidad de datos disponibles, basado en experiencias previas y casos exitosos. Por eso las redes sociales son un espacio muy fructífero para la exploración, porque en ellas hay miles de datos que sirven como base de entrenamiento para conseguir probabilidades», explica Suárez.

«El problema -prosigue- es que cuando hablamos del trabajo de una persona, eso afecta a su vida. La introducción de algoritmos forma parte de la cultura algorítmica para sustituir tareas de humanos y, entre ellas, por primera vez se encuentra la toma de decisiones. Y en Europa no está permitida la toma de decisiones por parte de una máquina si no está supervisada por una persona».

«’Hombre blanco’ es un denominador común, no un patrón de éxito: debesquitar el sexo del entrenamiento del algoritmo» (Karina Gibert, UPC)
 

Pero... ¿qué entendemos por toma de decisiones? «Es algo que se tiene que ver desde el punto de vista de qué tarea viene a reemplazar o complementar esa máquina», explica esta profesora de ESIC. «Es muy distinto -prosigue- que un robot ayude a los empleados a mover cajas que no que tome decisiones que afecten a la vida de una persona».

Entre esas afectaciones se encuentra, en buena lógica, quedar excluido por el algoritmo en ese primer filtrado masivo de curriculum vitae. «Aquella persona a la que el algoritmo le ha dicho que no - explica Esteve Almirall,  profesor del departamento de Operaciones, Innovación y Data Sciences de Esade-, no llegará nunca al humano».

«El riesgo de aplicar estas herramientas es automatizar sesgos» (Jordi Serrano, Fundació Factor Humà)

Claramente, aunque al final de un proceso de selección haya un humano tomando la decisión, la máquina ya ha tomado centenares o miles de decisiones sobre la vida de personas (excluyéndolas en ese primer filtrado), sin presencia humana alguna en el proceso. La posibilidad de que, según relata este profesor de Esade, nos dejemos a alguien muy valioso en el camino, está ahí. Aunque de la misma manera en que ya sucedía cuando esas clasificaciones las llevaban a cabo íntegramente humanos.

La reproducción de comportamientos humanos previos está en el origen de los sesgos

«Las IA acostumbran a ser mejores -añade Esteve Almirall-, pero si los humanos anteriores no fueron capaces de detectar a ese genio en procesos de selección, la máquina tampoco será capaz».

A todo ello se le añade el riesgo de sesgo: asociando patrones a modelos de éxito, es el principal escollo al que se enfrentan hoy. De nuevo aquí, reducir ese sesgo está en manos, exclusivamente, de los humanos.

Los sesgos son uno de los principales retos al que se enfrentan hoy las herramientas de Inteligencia Artificial (IA) cuando ejercen de clasificadores automáticos. Entrenados a partir de inputs como los curriculum vitae, un ejemplo clásico de sesgo es -cuando esos clasificadores intentan predecir si una persona servirá para un empleo a partir de los datos históricos de otros CV- que terminan eligiendo siempre hombres blancos. Un sexismo y racismo al que se le puede sumar edadismo, clasismo... En opinión de Karina Gibert, directora del Intelligent Data Science and Artificial Intelligence de la UPC, la responsabilidad está en «quién controla que estos algoritmos se entrenen con datos correctos: ‘hombre blanco’ es un denominador común, no un patrón de éxito. Deberías haber quitado el sexo de su entrenamiento, darle datos relevantes».

Cuando se enfrentan a un proceso de clasificación automática, «estos algoritmos reflejan las tácticas anteriores, las prácticas que han hecho las empresas anteriormente», explica Almirall. «Cuando tú entrenas un algoritmo, intentará reproducir comportamientos, y ese es el origen de los sesgos. Además, con el algoritmo no solo reproduces esos sesgos, sino que los aumentas. La Inteligencia Artificial hace de espejo de lo que hemos hecho anteriormente, y si hemos sido xenófobos, machistas... lo copia y lo amplifica».

Cultura algorítmica

Pero los humanos están aquí para guiar a las máquinas. «¿Quién controla que los datos que has usado son buenos o que los indicadores que has puesto son correctos?», se pregunta Karina Gibert, directora del Intelligent Data Science and Artificial Intelligence de la Universitat Politècnica de Catalunya (UPC), miembro del consejo asesor del Observatori d’Ètica en Intel·ligència Artificial de Catalunya y asesora de la Comisión Europea en ética de la IA.

«Esto, en el fondo, es una mala praxis», sostiene Gibert. «La solución -prosigue- es que, para entrenar a uno de estos algoritmos, los datos que le proporciones sean relevantes. Una de las recomendaciones de la Comisión Europea es vigilar los sesgos, tanto de los datos como de la lógica del algoritmo».

Los algoritmos se alimentan de datos. Cuantos más tengan a su alcance y mejor sea su calidad más lejos llegarán en su entrenamiento. El principal riesgo son los sesgos, que deben tratar de minimizar los humanos al proporcionar esos datos.

«Un recomendador -explica esta profesora de la UPC- como los que por ejemplo están surgiendo hoy en selección de personal, te puede dar un input más que te puede enriquecer muchísimo, y pienso que abre muchas posibilidades. ¿Pero significa eso que todo lo que corre por el mercado está bien hecho? No. Necesitamos desarrollar ese criterio de cultura algorítmica».

«El primer reto -coincide Jordi Serrano, de la Fundació Factor Humà- son los datos de base, porque el algoritmo se alimenta de tener buenos datos en la base, y los datos de muchas empresas no tienen la calidad necesaria. El segundo es el riesgo de sesgos. Pero los humanos tenemos tantos o más sesgos, y los equipos de Recursos Humanos también. Entonces, el riesgo que tiene aplicar estas herramientas es el de automatizar los sesgos y no darte cuenta de ello hasta que has procesado miles de curriculum vitae».

Para entrenar un algoritmo, los datos que se le proporcionen deben ser de calidad

Pero la realidad es que, si algo está ahí al alance, es fácil de usar y encima parece gratuito, alguien termina usándolo. Si utilizarlo tiene consecuencias directas sobre la vida de otras personas, reflexionar sobre ello es imprescindible. «Que se está haciendo es una realidad -razona Sara Suárez, de ESIC-, pero de ahí a que esté bien, hay un trecho. Y si encima lo quieres automatizar con una máquina...»

«Los Recursos Humanos -alerta Jordi Serrano, de la Fundació Factor Humà- están en un momento de mayor exigencia y rigor. Es el momento de incorporar los datos para añadir rigor, no para incorporar la última moda o juguete que ha surgido. Eso es peligroso».

Un clasificador automático es una familia del machine learning. En el caso de un proceso de selección de personal, por ejemplo, se alimentará de inputs como curriculum vitaes o fotografías, y sirvirá para llevar a cabo un p‘rimer filtrado masivo de candidatos.

«La regulación -añade Karina Gibert, de la UPC- puede resolverte eliminar del mercado productos fake, pero no que como usuario uses cosas que no te hacen falta o no sabes utilizar. Todo forma parte -insiste- de la creación de una cultura de la IA».
 

Comentarios
Multimedia Diari