iProfesionaliProfesional

Chatbots de Recursos Humanos ponen límites al "CV infalible"

La búsqueda de empleo requerirá ahora no solo estar capacitado para el puesto sino saber además "conversar" con chatbots y sortear sus prejuicios
27/07/2023 - 11:26hs
Chatbots de Recursos Humanos ponen límites al "CV infalible"

Los chatbots de recursos humanos se utilizan cada vez más en industrias como la atención médica, el comercio minorista y los restaurantes para filtrar a los solicitantes no calificados para las posiciones vacantes y programar entrevistas con los que podrían ser adecuados para el trabajo.

Sin embargo, estos bots pueden tener errores y no siempre hay un ser humano al que recurrir cuando algo sale mal.

Además, las respuestas claras que requieren muchos de los bots podrían significar el rechazo automático para algunos candidatos calificados que estén avezados a responderlas como el chatbot lo necesita, con el modelo de lenguaje adecuado.

Esto podría ser un problema para las personas con discapacidades, las personas que no dominan el inglés y los solicitantes de empleo de mayor edad. También existe preocupación por la discriminación y el prejuicio subyacente en los algoritmos utilizados por estos chatbots.

Los chatbots de Recursos Humanos

Según relevó Forbes, empresas como McDonalds, Wendy’s, CVS Health y Lowes utilizan Olivia, un chatbot desarrollado por Paradox, una startup de IA de 1500 millones de dólares con sede en Arizona. Otras empresas como L’Oreal confían en Mya, un chatbot de IA desarrollado en San Francisco por una startup del mismo nombre.

No son tan elaborados como los chatbots conversacionales contemporáneos, como ChatGPT, pero se usan para filtrar postulaciones en puestos en los que se recibe un gran volumen de solicitantes, como cajeros, asociados de almacén y asistentes de servicio al cliente.

Los chatbot de Recursos Humanos son menos evolucionados que ChatGPT
Los chatbot de Recursos Humanos son menos evolucionados que ChatGPT

Estos chatbots son rudimentarios y hacen preguntas bastante sencillas: "¿Sabe cómo usar una carretilla elevadora?" o "¿Podéss trabajar los fines de semana?" 

A esas preguntas solo se puede responder conciso y claro. Cualquier variación de la respuesta no puede ser procesada por el sistema de Inteligencia Artificial como lo haría un ser humano. Por eso, los candidatos no deberán solo estar calificados para el puesto, sino que deberán estar avezados sobre cómo interactuar con estos bots tan sencillos. 

Eso podría ser un problema para las personas con discapacidades, las personas que no dominan el inglés y los solicitantes de empleo de mayor edad. Aaron Konopasky, abogado asesor sénior de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) de Estados Unidos (EU), dijo a la publicación de negocios norteamericana que teme que los chatbots como Olivia y Mya no brinden a las personas con discapacidades o afecciones médicas opciones alternativas de disponibilidad o funciones laborales.

"Si es un ser humano con quien estás hablando, existe una oportunidad natural para hablar sobre adaptaciones razonables", dijo a Forbes. "Si el chatbot es demasiado rígido y la persona necesita poder solicitar algún tipo de exención, es posible que el chatbot no le dé la oportunidad de hacerlo", completó.

Chatbots con prejuicios

La discriminación es otra preocupación. El prejuicio subyacente en los datos utilizados para entrenar la IA puede generar sesgo y discriminación en las herramientas en las que se implementa.

"Si el chatbot observa cosas como cuánto tiempo le lleva responder, o si está usando la gramática correcta y oraciones complejas, ahí es donde comienza a preocuparse por la aparición de prejuicios", dijo a Forbes Pauline Kim, profesora de derecho laboral y laboral en la Universidad de Washington, cuya investigación se centra en el uso de IA en herramientas de contratación.

Pero ese sesgo puede ser difícil de detectar cuando las empresas no son transparentes acerca de por qué se rechazó a un candidato potencial.

Algunos procesos automáticos de Recursos Humanos tuvieron evaluaciones de personalidad
Algunos procesos automáticos de Recursos Humanos tuvieron evaluaciones de personalidad

Por eso a principios de julio, la ciudad de Nueva York promulgó una nueva ley que requiere que los empleadores que utilizan herramientas automatizadas como escáneres de currículums y entrevistas con chatbots auditen sus herramientas en busca de prejuicios raciales y de género. En 2020, Illinois aprobó una ley que requiere que los empleadores que aplican IA analicen las entrevistas en video para notificar a los solicitantes y obtener el consentimiento.

Aún así, para las empresas que buscan recortar los costos de reclutamiento, los agentes de selección de IA parecen una opción obvia. Los departamentos de recursos humanos son uno de los primeros lugares en ver reducciones de personal, dijo Matthew Scherer, asesor principal de políticas para los derechos de los trabajadores y la tecnología en el Centro para la Democracia y la Tecnología: "Los chatbots son un primer paso muy lógico para tratar de quitarles parte de la carga a los reclutadores".

Eso es parte de la lógica detrás de Sense HQ, que proporciona servicios a empresas como Sears, Dell y Sony con chatbots de inteligencia artificial basados en mensajes de texto que ayudan a sus reclutadores a abrirse camino entre miles de solicitantes.

La compañía afirma que ya la usaron unos 10 millones de solicitantes de empleo, y el cofundador Alex Rosen le dijo a Forbes que esos números significan un grupo mucho más grande de candidatos viables.

"La razón por la que construimos un chatbot en primer lugar fue para ayudar a los reclutadores a hablar con una franja más amplia de candidatos de lo que podrían hacerlo por sí mismos", dijo, y agregó la advertencia obligatoria: "No creemos que eso la IA debería tomar la decisión de contratación por su cuenta. Ahí es donde se pone peligroso. Simplemente no creemos que esté ahí todavía".

RecruitBot está incorporando la inteligencia artificial en la contratación mediante el uso del aprendizaje automático para filtrar una base de datos de 600 millones de solicitantes de empleo extraídos de LinkedIn y otros mercados laborales, todo con el objetivo de ayudar a las empresas a encontrar candidatos laborales similares a sus empleados actuales.

"Es algo así como Netflix recomienda películas basadas en otras películas que te gustan", dijo a Forbes el CEO y fundador Jeremy Schiff. Pero aquí también el sesgo es una preocupación obvia; contratar más de lo mismo tiene sus trampas. En 2018, Amazon eliminó su máquina o sistema de seguimiento de currículums basado en el aprendizaje que discriminaba a las mujeres porque sus datos de capacitación estaban compuestos principalmente por currículums de hombres.

Urmila Janardan, analista de políticas en Upturn, una organización sin fines de lucro que investiga cómo las tecnologías impactan en las oportunidades para las personas, señaló que algunas empresas también recurrieron a las pruebas de personalidad para descartar candidatos, y las preguntas para evaluar a los candidatos pueden no estar relacionadas con el trabajo en absoluto.

"Incluso podría ser potencialmente rechazado del trabajo debido a preguntas sobre la gratitud y la personalidad", dijo a Forbes.