Image: Jeff Bezos (AP)

Seg√ļn cuenta en un reportaje Reuters, Amazon cre√≥ un equipo de ingenier√≠a en Edimburgo en 2014 para encontrar una manera de automatizar las contrataciones. La herramienta de inteligencia artificial para la tarea fracas√≥ cuando descubrieron que el sistema discriminaba a las mujeres.

Al parecer, Amazon hab√≠a creado 500 modelos inform√°ticos para rastrear los curr√≠culos de los candidatos ‚Äč‚Äčy recoger alrededor de 50.000 t√©rminos clave. El sistema rastrear√≠a la web para recomendar candidatos. Seg√ļn le dijo una fuente a Reuters:

Literalmente querían que fuera un motor donde les voy a dar 100 hojas de una vida, escupirán los cinco primeros y los contrataremos.

Sin embargo, un a√Īo despu√©s, los ingenieros notaron que hab√≠a algo preocupante en su motor: no le ‚Äúgustaban‚ÄĚ las mujeres. Aparentemente, esto se deb√≠a a que la IA repas√≥ los CV predominantemente masculinos enviados a Amazon durante un per√≠odo de 10 a√Īos para acumular datos sobre a qui√©n contratar. En consecuencia, la IA lleg√≥ a la conclusi√≥n de que los hombres eran preferibles.

Image: AP

Seg√ļn el reportaje, esto rebaj√≥ los curr√≠culos que conten√≠an las palabras ‚Äúmujeres‚ÄĚ y elimin√≥ a las candidatas que hab√≠an asistido a dos universidades solo para mujeres. Los ingenieros de Amazon trataron de modificar el sistema para remediar el sesgo, pero no pod√≠an estar seguros de que la IA no encontrar√≠a nuevas formas de discriminar injustamente a los candidatos. Seg√ļn las fuentes:

El sesgo de g√©nero no fue el √ļnico problema. Los programas tambi√©n escupieron candidatos que no estaban calificados para el puesto.

Advertisement

¬ŅSoluci√≥n? Como explican a la agencia, el sesgo algor√≠tmico es un tema espinoso, ya que los algoritmos pueden detectar el sesgo humano subconsciente. En 2016, ProPublica descubri√≥ que el software de evaluaci√≥n de riesgos utilizado para predecir qu√© criminales eran m√°s propensos a reincidir presentaba un sesgo racial contra los negros.

El exceso de confianza en la inteligencia artificial para cosas como el reclutamiento, la calificación crediticia o los juicios de libertad condicional también han creado problemas en el pasado.

Amazon inform√≥ que abandon√≥ el proyecto de reclutamiento por IA a principios del a√Īo pasado despu√©s de que los ejecutivos perdieran la fe en el sistema. Las fuentes de Reuters tambi√©n dijeron que los reclutadores de la compa√Ī√≠a analizaron las recomendaciones generadas por la IA, pero nunca se basaron √ļnicamente en su juicio. [Reuters]