La ética de la IA en Recursos Humanos

February 10, 2021 Jose Alberto Rodriguez Ruiz

Recientemente anunciamos el lanzamiento de nuestro Cornerstone AI Innovation Lab o Laboratorio de Innovación para la Inteligencia Artificial. Situado en París, nuestro centro de excelencia IA reúne a expertos de aprendizaje automático, inteligencia artificial, recursos humanos y protección de datos para investigar nuevas formas de usar esta tecnología en el ámbito de los Recursos Humanos, con un foco especial en la experiencia del empleado.

De este laboratorio nace Skills Graph: un buscador de habilidades que hace uso de la tecnología más puntera de inteligencia artificial para acercarle a nuestros clientes la posibilidad de destapar las habilidades de sus empleados. Dicho buscador nos abre un mundo lleno de posibilidades. Un mundo en el cual podemos ayudar a nuestros empleados a descubrir nuevas carreras profesionales, sugerir contenido y aprendizaje que se adapte a las ambiciones profesionales del empleado. Se habla mucho de reskilling y de upskilling y así, gracias a la innovadora visión de nuestro sistema, esta tarea es menos ardua, más transparente y justa.

La inteligencia artificial sirve por un lado para la automatización de procesos. Es una forma de optimizar nuestro trabajo y ayudarnos a ser más eficientes. Y por el otro para crear correlaciones que no son evidentes (¡si lo fueran, nos bastaría con la inteligencia natural!). La combinación de estos dos factores puedo permitirnos una mejora importante de los procesos de recursos humanos. Sin embargo, el algoritmo no tiene intenciones, y si no se pone cuidado, puede repetir los errores del pasado, por ello es importante habar de ética y plantearnos cómo incorporar la noción de comportamiento del algoritmo en la fase de diseño. No podemos ignorar que la IA genera incertitudes y riesgos, y el ámbito de los Recursos Humanos no podía ser diferente. Un ejemplo muy discutido ha sido el del uso de datos de personas no filtrados, para un algoritmo de selección de personal que concluyó con discriminación basada en el género. El motivo por el cual este tipo de situaciones han ocurrido ha sido, porque la programación de inteligencia artificial muchas ocasiones se basa en tener muchos datos y buscar patrones repetitivos dentro de esos datos históricos. Estos datos pueden ser un reflejo de realidades pasadas, por ejemplo, que hubiera una mayoría de hombres en determinados puestos de trabajo, criterio que raramente se justifica. Por ello, las empresas que trabajan con esta tecnología tenemos la responsabilidad de combinar los ingenieros de datos, los profesionales de Recursos Humanos y los profesionales de la ética, para hacer un uso correcto de dicha tecnología.

Existen muchos motivos para innovar en esta línea, y estos se han hecho muy evidentes en estos últimos tiempos: velocidad, volumen, cambios muy rápidos y la limitación de los procesos clásicos manuales. Pensemos en una empresa que quiera adaptarse al cambio y apueste por una estrategia de aprendizaje de reskilling. El proceso manual tiene un límite en la capacidad y la calidad; por ello, automatizar procesos con una inteligencia detrás de ellos nos ayudará a que estos procesos se gestionen con mayor rapidez y que sean útiles.

Pero para ello, los departamentos de Recursos Humanos tendrán que actualizarse y convertirse en “expertos” en IA, o más exactamente, en expertos usuarios de la IA:

  1. Pensar en los datos. ¿Qué datos estamos utilizando para crear esos algoritmos? Si nos basamos en datos históricos esto puede tener consecuencias que tenemos que considerar durante el diseño.
  2. Uso del algoritmo. Una vez puesto en marcha, los usuarios del algoritmo, es decir RRHH, tendrán que aprender cómo funciona la IA, afín de poder juzgar de la exactitud de sus resultados, corregir los errores, disminuir los riesgos y contribuir a su mejora.

Este fenómeno va a dar paso a nuevos puestos de trabajo dentro del departamento de RRHH, al mismo tiempo supone una gran oportunidad para que este departamento expanda sus habilidades ergo upskill y reskill.

Por todo esto, en el Laboratorio de Innovación de Cornerstone para IA ponemos la ética en el centro de nuestra innovación. Siempre pensamos en los siete principios éticos para la inteligencia artificial de la UE: supervisión o control humano, algoritmos robustos difíciles de manipular, algoritmos que tengan en cuenta la protección de datos personales, algoritmos transparentes y que tengan en cuenta la diversidad y la no discriminación, el bienestar social y ambiental y la responsabilidad.

La IA es una herramienta de gran potencia, de nosotros, los profesionales de RRH, depende cómo se utilice.

Este artículo está basado en este podcast de Observatorio de Recursos Humanos.

Sobre el Autor

Jose Alberto Rodriguez Ruiz

To lead its global privacy efforts, Cornerstone recently promoted José Alberto Rodríguez Ruiz to data protection officer. Based in the company’s Paris office, Rodríguez has been with Cornerstone since 2009 and is now responsible for protecting the privacy of the data of Cornerstone's clients worldwide, ensuring Cornerstone data centres meet global and geographical requirements and helping clients with their privacy obligations.

Seguir en LinkedIn Más contenido de Jose Alberto Rodriguez Ruiz
Artículo anterior
¿Por qué contenido y ... por qué ahora?
¿Por qué contenido y ... por qué ahora?

Siguiente artículo
Cornerstone se asocia con Microsoft para incorporar el aprendizaje al flujo de trabajo
Cornerstone se asocia con Microsoft para incorporar el aprendizaje al flujo de trabajo

×

Accede a nuestra biblioteca de forma gratuita rellenando este formulario

Nombre
Apellidos
Cargo
Empresa
Número de empleados
País
Suscribirse a todas las comunicaciones
!
Gracias!
Error - something went wrong!