Inteligencia Artificial, Sesgos y Gestión de Personas

¿Qué dice la RAE?

Seguramente hayáis oído hablar de los sesgos recientemente… y en especial, cuando se aborda el uso de la Inteligencia Artificial en el ámbito de la Gestión de Personas. Suele incidirse sobre todo en el problema que representa el poder tomar decisiones de forma incorrecta, al apoyarse en los resultados arrojados por un algoritmo que pueda funcionar siguiendo un comportamiento inicialmente no previsto.

(Si os interesa el tema de los sesgos en relación con el uso de la IA, os recomendamos seguir a ORH, Observatorio de Recursos Humanos, y a IA +Igual, quienes están coordinando un proyecto de análisis e investigación, con casos concretos, en torno a la utilización de la Inteligencia Artificial en relación con la Gestión del Talento).

Pero… ¿qué es un sesgo?

Si nos atenemos a la entrada correspondiente de la RAE, nos encontramos entre sus acepciones con la siguiente:

“Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayo
 se seleccionan o favorecen unas respuestas frente a otras.”

Y si buscamos “sesgado”, llegamos a la siguiente definición:

“Desviado, tendencioso”.

A partir de ambas, podemos aventurarnos a crear nuestra propia definición de “sesgo” cuando hablamos de prácticas relacionadas con Recursos Humanos.

¿Y qué es un sesgo en relación con RRHH?

Podríamos decir que, cuando hablamos de Recursos Humanos, un sesgo es una desviación en la que incurrimos de forma habitual a la hora de tomar decisiones en un terreno concreto que afecte a la Gestión de Personas.

Y, ojo, ese sesgo puede ser consciente o inconsciente. Y la forma de “tratarlo” difiere en cada caso.

Si se trata de un sesgo consciente, debemos enfrentar un problema cultural, educacional y de comportamiento; de hecho, este tipo de sesgos tiene mucho que ver con las percepciones subjetivas de las personas, con sus experiencias vividas, y, en ocasiones, con actitudes y formas de proceder que son así, simplemente, “porque siempre se han hecho así”.

Por el contrario, los sesgos inconscientes pueden tener un origen diferente; es cierto que a veces se incurre en este tipo de sesgos por “influencias de la tradición”… pero también pueden tener su origen en la aplicación no adecuada de la tecnología. Y es precisamente en este último caso en el que vamos a incidir a continuación.

Sesgos, Tecnología y RRHH

Seguro que todos estamos de acuerdo en el hecho de que contar con datos aporta un tremendo valor a la hora de tomar decisiones.

Y también coincidiremos en que la tecnología puede ayudarnos mucho en este sentido.

Pero, como muchas veces ocurre… las cosas a veces pueden tener un “lado oculto” del que hay que estar prevenidos. Y esto es especialmente importante cuando nuestras decisiones afectan a profesionales, personas con nombres, apellidos y situaciones concretas.

Pongamos un ejemplo: probablemente conoceréis lo que le ocurrió a Amazon, allá por el año 2014 (esto de la IA no empezó anteayer 😉), cuando puso en marcha un sistema autónomo para “cribar CVs” en sus procesos de selección. Resulta que el sistema en cuestión comenzó a discriminar a las candidatas femeninas… porque el algoritmo, que fue entrenado con los datos de los profesionales de Amazon de los últimos diez años antes de ponerse en marcha, muy mayoritariamente varones, interpretó que ese hecho (el ser varón) era garantía de éxito frente a las mujeres. ¿Por qué si no iba a contarse con una mayoría tan grande en la plantilla? El sistema de IA, obviamente, fue abandonado ante la crisis reputacional (y procedimental) generada.

En el ejemplo mencionado, el sesgo en el que el algoritmo incurrió tuvo que ver con los datos de origen… y con la falta inicial de supervisión humana, de conocimiento, que pudiera haber levantado la mano ante esa situación.

En otras ocasiones, los sesgos pueden tener relación con otras características: la edad (¿quién no se ha encontrado con reflexiones sobre el edadismo en los últimos meses?), la raza o la apariencia son sólo algunos ejemplos.

Además, no sólo “lo que dicen los datos” puede ser la fuente del problema; no olvidemos que los algoritmos los diseñan personas… y si transmiten sus sesgos al sistema, aunque sea de manera inconsciente, tenemos un problema.

Al final, la clave está en contar con datos de calidad (una plataforma como denario puede ayudarte, y mucho, en este terreno) y con expertos en Gestión de Personas que puedan ir más allá de la frialdad de la información aportando su “conocimiento de negocio”.