Amazon desecha una IA de reclutamiento por su sesgo contra las mujeres

La herramienta secreta que elegía a los candidatos que podían formar parte de la compañía mostró un sesgo muy claro contra las mujeres.

La Inteligencia Artifial (IA) no es imbatible. Y Amazon ya lo ha experimentado en sus propias carnes. Aunque la tecnología suele ser un aliado, no todas las decisiones pueden depender de la misma. Por esta razón, Amazon ha decidido prescindir de la IA que le ayudaba a reclutar empleados por ser claramente sexista .

Tal y como informa Reuters, la herramienta secreta basada en IA con la que Amazon elegía a quienes podían formar parte de la compañía mostró un sesgo muy claro contra las mujeres .

La compañía de Jeff Bezos empezó en 2014 a construir programas informáticos que revisaban los currículos de los aspirantes. El objetivo era mecanizar la búsqueda y dar con los mejores talentos, según han confesado a Reuters fuentes cercanas a la compañía.

La automatización ha sido clave para el dominio del comercio electrónico de Amazon, ya sea dentro de almacenes o impulsando decisiones de precios. La herramienta experimental de contratación de la compañía usó IA para puntuar a los candidatos con entre una y cinco estrellas, tal y como se califican los productos que los usuarios compran a través de la página web.

En 2015, la compañía se dio cuenta de que su nuevo sistema no estaba calificando a los candidatos para los trabajos de desarrollador de software y otros puestos técnicos de manera neutral al género. Tal y como explica Reuters, esto se debe a que se educó a la IA con currículos de candidatos recopilados durante una década . La mayoría de ellos eran hombres así que la IA fue entrenada con un claro dominio masculino . Así, el sistema informáticos de Amazon siempre optaba por hombres. Se penalizaron los currículos que incluían la palabra «mujeres», con independencia de su formación.

Amazon editó los programas informáticos para hacerlos neutrales pero no funcionó. Los candidatos seguían clasificándose de manera discriminatoria así que la compañía de Seattle finalmente disolvió la IA a principios de 2017 porque los ejecutivos perdieron la esperanza de que el proyecto se encauzase.

La compañía nunca ha ofrecido declaraciones al respecto de esta práctica sexista al mismo tiempo que siempre ha defendido que está comprometida con la diversidad y la igualdad en el trabajo.

Lenguaje masculino

El experimento de Amazon comenzó en un momento crucial para la compañía. El aprendizaje automático estaba ganando terreno en el mundo de la tecnología y el departamento de RR.HH. de Amazon estaba a punto de embarcarse en una serie de contrataciones: desde junio de 2015, la plantilla global de la compañía se ha triplicado.

Ante esta situación, creó un equipo en el centro de ingeniería de Edimburgo, compuesto de hasta doce personas. Su objetivo era desarrollar una IA que pudiera rastrear rápidamente la web y detectar candidatos que valieran la pena reclutar, relatan a Reuters fuentes cercanas a la compañía.

El grupo creó 500 modelos informáticos enfocados a funciones y ubicaciones específicas del trabajo. Enseñaron a cada uno a reconocer unos 50.000 términos que aparecían en los currículos de los candidatos pasados. Los algoritmos aprendieron a asignar poca importancia a las habilidades que eran comunes entre los solicitantes . Sin embargo, la tecnología favorecía a los candidatos que se describían a sí mismos usando verbos que normalmente se encuentran con mayor frecuencia en los currículos de ingenieros masculinos.

Una herramienta aliada

Según una encuesta realizada en 2017 por la firma de software de talentos CareerBuilder, un 55 por ciento de los gerentes de RR.HH. de EE.UU. aseguraban que la IA sería una parte regular de su trabajo en los próximos cinco años.

Los reclutadores pueden aprovechar la tecnología para ampliar la red de contratación y reducir la dependencia de las opiniones subjetivas de los propios profesionales de RR.HH. Pero los científicos informáticos como Nihar Shah , que enseña aprendizaje automático en la Universidad Carnegie Mellon, asegura que aún hay mucho trabajo por hacer. « Cómo garantizar que el algoritmo sea justo,cómo asegurarse de que sea realmente interpretable y explicable, está todavía bastante lejos », asegura el experto.

A pesar de ello, hay algunas compañías que sí están apostando por aprovechar la IA para la contratación. LinkedIn, por ejemplo, ofrece a las empresas que buscan candidatos clasificaciones algorítmicas de los aspirantes en función de cómo su ajuste su perfil a la oferta.

Sin embargo, John Jersin , vicepresidente de LinkedIn Talent Solutions, ha asegurado que el servicio no reemplaza a los reclutadores tradicionales. «Sin duda, no hay que confiar en cualquier sistema de IA ciegamente y que tome la decisión de contratar o no por su cuenta porque la tecnología aún no está lista», confesó Jersin a Reuters.

1 me gusta

si es que hasta skynet sabe quien manda :joy:

6 Me gusta

Leyéndote la noticia la verdad es que no sacas absolutamente NADA destacable. Se usaron unos parámetros iniciales que invitaban a ello y la IA simplemente siguió el camino indicado, no hay más.

4 Me gusta

Tal cual.

1 me gusta

Explotadores todo lo que quieran, pero que no se les ocurra ni por un puto momento ser sexistas que se lía pardísima hijos de puta

8 Me gusta

Tal cual

Y yo que pensaba que la IA se había rebelado contra su programación uniéndose a la resistencia heteropatriarcal… Me has jodido la fiesta.

Será porque los programadores hombres, tenían más talento y experiencia que las mujeres? :man_shrugging:

Te has leido la noticia?

1 me gusta

Pues lo que acabo de decir, la IA. La entrenaron con todo el peazo curriculum masculino.

Son hiperparámetros heteropatriarcales insanos :joy:

https://es.quora.com/Qué-son-los-hiperparametros-y-para-qué-sirven-en-machine-learning

Maldita IA machista falocentrista.

La demostración que lo “neutral” lo invade todo, hasta las IAS. No puedes no ser sexista en este mundo, ni siquiera una máquina puede. Lo tenemos muy crudo xD

1 me gusta

La noticia es bastante amarillista de por sí pero la versión recortada del ABC es incluso peor.

En la fuente comenta que simplemente no le daba puntos ser presidente del club de ajedrez femenino o que universidades femeninas no puntuaban tan alto como las demás porque sus candidatas tampoco.

Luego profundiza en que algunas palabras como ejecutar y no me acuerdo la otra eran mejor valoradas que otras, y que eran palabras que daba la casualidad que las usaban más los hombres.

Lo mas cachondo es que finalmente lo que dice es que nunca la usaron para nada porque los resultados eran bastante random.

Que por qué retuercen una anécdota de hace años que nunca se usó para hacer ver que se discriminaba a las mujeres os lo dejo a los demás.

2 Me gusta

Más bien porque tomaba ejemplos a bulto de currículums exitosos (ejemplos de anteriores empleados contratados) y como la mayoría eran hombres, asignaba a bulto más valor a los que eran masculinos (rasgo más común entre los seleccionados)

La IA no estaba haciendo ninguna discriminación a propósito. Y por poder, dado que otorgaba menos puntuación a todo lo que sea común, bien podría haber hecho el sesgo al revés.

Un ejemplo más de que un ordenador hace lo que le ordenas, no lo que quieres

La programaron para contratar a los mejores, sin cuotas de por medio, y eso hizo.

1 me gusta

Es necesario educar a las IAs en empoderamiento, teoría de género, visibilización y Teoría Queer First Datas.