Ética de la inteligencia artificial y el aprendizaje automático en recursos humanos

Educacion ejecutiva
Typography

La inteligencia artificial (IA) y el machine learning (ML) ahora están integrados en nuestra vida diaria, ya sea en la selección de películas recomendadas por su servicio de transmisión preferido o en una lista de productos destacados sugeridos para comprar en sus carritos de compras en línea.

Estas funciones utilizan algoritmos para predecir lo que es probable que consuma en función de los datos de comportamiento y del consumidor anteriores.  

El uso y la expansión de las capacidades de inteligencia artificial han aumentado exponencialmente, y la inversión en la tecnología emergente se ha multiplicado por 15 en cinco años. Esta tendencia sugiere que las organizaciones tienen altas expectativas de que las tecnologías emergentes ayuden a maximizar la producción, la rentabilidad, la productividad laboral y el compromiso. Sin embargo, esta trayectoria de rápido crecimiento también puede socavar los riesgos no deseados que implica su uso. 

Si bien los casos de uso de IA y ML pueden ser muy convincentes y los riesgos relativamente bajos cuando se trata de predecir el comportamiento del consumidor para bienes y servicios, lo que está en juego es mucho mayor cuando ambos se utilizan para impulsar las decisiones de la fuerza laboral en la empresa. 

Este es el dilema al que se enfrentan las organizaciones de recursos humanos en la actualidad. Por un lado, existe un consenso entre los profesionales de recursos humanos de que las tecnologías emergentes como la inteligencia artificial y el machine learning tienen el potencial de ayudar a aumentar la productividad, reducir el sesgo humano y mejorar la precisión en las predicciones de la fuerza laboral. Por otro lado, las últimas investigaciones sugieren que también existe una creciente preocupación por la falta de transparencia ética, legal y detrás de las herramientas de IA y ML. 

La pregunta entonces es: ¿Qué pueden comenzar a hacer los gerentes de Recursos Humanos para abordar estas preocupaciones y aprovechar estas tecnologías emergentes de manera efectiva? Aquí algunos consejos:  

 1. Aumento de la transparencia: los candidatos y los trabajadores tienden a volverse más escépticos y preocupados por las decisiones relacionadas con los recursos humanos impulsadas por los resultados de la IA y el machine learning cuando no entienden el qué, quién, cómo y por qué. Por lo tanto, es fundamental que los empleadores estén preparados para explicar los casos de uso, los algoritmos y los procesos de toma de decisiones. Además, el cumplimiento de las distintas normativas de protección de datos es primordial.  

2. Revisión de datos en busca de sesgos y ampliación de las fuentes de datos: uno de los mayores riesgos cuando se trata de IA y ML son los conjuntos de datos limitados y potencialmente sesgados. Por lo tanto, es muy importante desde el principio que los gerentes de Recursos Humanos examinen más a fondo los datos de sus empleados y evalúen áreas como el rendimiento, el potencial, las promociones y realicen un análisis de impacto adverso muy completo para buscar una posible indicación de sesgo. Otro riesgo es la disponibilidad limitada de datos. La inteligencia artificial y el machine learning son más efectivos cuando se usan en conjuntos de datos muy grandes, por lo que se explora el uso de otras fuentes de datos, incluso de terceros, que pueden expandir el uso de esos algoritmos y garantizar que sean más precisos. 

3. Adopción de un enfoque multidisciplinario: muchas organizaciones ahora se están enfocando en contratar científicos de datos que puedan construir algoritmos y extraer datos. Las complejidades del uso de la IA y el machine learning en los recursos humanos requieren que los gerentes de Recursos Humanos reúnan su equipo de personas con conjuntos de habilidades multidisciplinarias para evaluar y aplicar de manera efectiva estas tecnologías emergentes en las organizaciones. Una buena manera de abordar este desafío es formando un consejo interno de IA compuesto por profesionales legales y éticos, científicos de datos, profesionales de recursos humanos y trabajadores para revisar y evaluar cualquier impacto adverso potencial en los casos de uso de las tecnologías emergentes mencionadas anteriormente. 

La tecnología por sí sola no puede abordar las deficiencias de las aplicaciones de IA y ML en RR.HH. Como sugiere Ben Shneiderman, científico e investigador de la Universidad de Maryland, existe la necesidad de un enfoque de IA centrado en el ser humano que requiera un mayor equilibrio entre el control humano y la automatización informática. En otras palabras, la tecnología debe usarse para hacer que el lugar de trabajo sea más humano, no menos.