Especialistas en aprendizaje automático de Amazon han estado dando forma a una herramienta para revisar los currículums de solicitantes de empleo desde 2014. Una manera de agilizar la búsqueda de talento.
Sin embargo, descubrieron un gran problema: su motor de reclutamiento era sexista. No le gustaban las mujeres.
Esto es lo que asegura Reuters, tras recabar los testimonios de cinco personas familiarizadas con el asunto. La idea era que esta herramienta basada en inteligencia artificial fuese capaz de procesar un alto número de currículums y, tras examinarlos, arrojase cinco candidatos perfectos listos para contratar. Aunque no era nada neutral.
Discriminaba a las desarrolladoras de software prefiriendo a los hombres

En 2015, según la información publicada por la agencia de noticias, desde Amazon se dieron cuenta que su sistema de reclutamiento no juzgaba de manera neutral en cuanto al género. Tenía un sesgo en favor de los hombres a la hora de examinar candidatos para puestos de desarrollador de software y otras ocupaciones de carácter técnico.
¿Por qué? Por la base de datos. Parece ser que los especialistas en aprendizaje automático entrenador la herramienta de inteligencia artificial a partir de patrones que podían observarse en los currículos presentados a la empresa durante una década. Y la mayoría de ellos pertenecían a hombres; ahí estaba el problema.
Con este fondo, el sistema se enseñó a sí mismo que eran preferibles los candidatos de género masculino, así que penalizaba todos aquellos currículums que incluían referencias femeninas. Asimismo, también rebajó la calificación que otorgaba a las candidatas —puntuaciones que iban de una a cinco estrellas— que incluían estudios en centros educativos femeninos.
De acuerdo con los detalles que revela Reuters, los profesionales de la compañía modificaron los programas de reclutamiento laboral para hacerlos neutros a estos términos particulares que jugaban en contra de las posibilidades de las candidatas, pero al parecer no aseguraba la ausencia de sesgos. Esas modificaciones no garantizaban que el sistema no idease otras forma de discriminación, les aseguraron sus fuentes.
Ante la duda, la inteligencia artificial de reclutamiento fue despedida

La alimentación en forma de datos de la inteligencia artificial, su sustento para funcionar, debe estar correctamente procesada. Y en ese procesamiento entran en juego correcciones hipotéticas que pueda necesitar conocer el sistema para actuar con buen juicio y equidad.
Por ejemplo, en este caso en el que se desarrollaron medio millar de modelos informáticos, basados en una década de contrataciones, la inteligencia artificial debería haber sabido que una de la intención era ofrecer igualdad de oportunidades independientemente del sexo. Algo que, sin embargo, no es nada sencillo.
Amazon se ha negado a comentar el asunto, pero según la información que se maneja desde la agencia de noticias, la compañía disolvió a principios del año pasado el equipo que creó esta inteligencia artificial. Las altas esferas de la empresa perdieron la esperanza en el proyecto y su verdadera utilidad. Se dejó de usar, aunque algunos datos sí habrían sido empleados por reclutadores humanos.
Este caso curioso y llamativo, sumado a otros de similares tintes, pone de manifiesto las limitaciones del aprendizaje automático y el amplio trabajo que queda por delante. No resulta sencillo ejercitar un sistema de inteligencia artificial ni obtener los resultados esperados sin errores, por grandes o pequeños que estos sean. Aunque se cuente con presupuestos tan amplios y con el talento necesario como en el caso de Amazon o Google.
Ver 58 comentarios
58 comentarios
Usuario desactivado
Y porque no borraron el sexo/raza/edad/etc de los CV con los que alimentaban a esa "IA" y volvieron a empezar?
sr.lobo.
¿Y si dejamos que cada uno contraté a quien le dé la real gana?
El que contrate a los mejores (con independencia de su género o raza) vencerá frente a los que tengan prejuicios y contraté hombre o mujeres por el mero hecho de serlos.
Es así de sencillo.
inkdeem
Hay una solución muy clara para solucionar ese problema:
Eliminar el genero de las personas solicitantes en los curriculums. Si a eso le agregamos entrevistas a "ciegas", tal vez la gente sería contrata por sus aptitudes y no por su genero...
chandlerbing
Entonces la IA no está libre de ser manipulada por subjetividades humanas y que las imite en sus decisiones.
Falta mucho desarrollo para lograr una neutralidad más consistente.
Por lo que de Ia no tiene mucho.
Usuario desactivado
Yo lo comenté una vez en genbeta: https://www.genbeta.com/herramientas/resumemaker-crea-tu-curriculum-online-descargarlo-pdf-alta-calidad-gratis-registro#c549540
El software(de manera general, el de amazon no es el único) ni siquiera se fija en la institución de estudio, o los logros alcanzados, el software simplemente busca "palabras claves".
bacp
Asi que penaliza a las mujeres porque le dieron mas curriculums de hombres...
Por la misma regla de 3, penalizaria a los que ponían jefe de programación, porque le dieron mas curriculums que ponían becario
Penalizaria a aquellos que tuvieron matriculas de honor, y beneficiaria a los que obtenían notas mediocres como la mayoría de los curriculums...
Es eso una inteligencia artificial??? Seleccionar el valor que mas se repite sin entrar a valorar si ese es bueno, malo o neutral?
l0ck0
eso es lo que pasa cuando obligas a poner en el CV datos que no tendrian que ponerse como son sexo, edad, raza, peso, estatura....
pero luego esta el otro tema.... si el "sesgo" de la IA hubira sido primar a las mujeres por el simple echo de ser mujeres se habria "despedido" a la IA por sexista?? Si se le pide seleccionar a los 5 mejores pues oye que seleccione a los 5 mejores tengan lo que tengan en la entrepierna
rotodosshur
Elegir a los mejores es sexista... ya ya, que te pires.
rocketboom
Es misógina no sexista
mat10
Discriminadora jjajaj absurdo hoy por hoy no hay una inteligencia artificial que no responda a parámetros solo cámbielos y ya esta, pero claro querían la publicidad gratis.
agustíncano
Los hombres en general son mejores programadores. Por eso la IA los selecciona. A los programadores se les olvidó incluir la función feminazi() .