Los trabajadores keniatas malpagados tras ChatGPT

Ni siquiera la nueva generación de IA generativa de vanguardia se libra de supervisores humanos. Una investigación de Time publicada el mes pasado reveló que OpenAI subcontrató trabajadores kenianos, algunos de los cuales cobraban tan solo dos dólares la hora, para filtrar contenido perturbador y crear un filtro de IA que eventualmente se usó para buscar indicios de contenido inmoral o ilegal.
Ese detector de contenido, que ha sido posible solo gracias a revisores humanos, se utiliza para reducir la posibilidad de que la popular herramienta de IA ofrezca contenido dañino a sus usuarios. El detector también ayuda a eliminar las entradas tóxicas de los conjuntos de datos utilizados para entrenar ChatGPT.
Los trabajadores que reforzaron a la IA explicaron que debían leer regularmente textos que mostraba relatos vívidos de tortura, suicidio, incesto y abuso sexual infantil. todo para hacer que ChatGPT fuera aceptable para el público. Uno de los trabajadores explicó a Time que sufría pesadillas recurrentes después de leer repugnantes descripciones de zoofilia. Fue una tortura”, sentencia el trabajador.