Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

OpenAI subcontrató trabajadores en Kenia por menos de $2 la hora para supervisar ChatGPT

Según un reportaje, los trabajadores revisaron relatos gráficos de abuso sexual infantil, asesinato, tortura, suicidio e incesto

By
We may earn a commission from links on this page.
Kenianos revisaron relatos gráficos de abuso sexual infantil, asesinato, tortura, suicidio e incesto para OpenAI
Foto: Ascannio (Shutterstock)

El mundo aparentemente simple y brillante asociado con la tecnología casi siempre se sustenta en algo más oscuro escondido justo debajo de la superficie. Desde moderadores de contenido mentalmente heridos que escudriñan torrentes de viles publicaciones de Facebook hasta niños explotados para extraer cobalto para los vehículos eléctricos de lujo. La eficiencia sin fricciones tiene un costo humano, y un nuevo reportaje muestra que eso es igualmente cierto para OpenAI, la destacada empresa de IA generativa.

Una nueva investigación de Time afirma que OpenAI, la querida empresa detrás del nuevo y poderoso chatbot de IA generativa ChatGPT usó trabajadores kenianos subcontratados, muchos de ellos con salarios inferiores a $2 por hora, para examinar algunos de los rincones más oscuros de Internet a fin de crear un filtro adicional para el sistema de IA. Gracias a ese filtro, ChatGPT, que ha ganado más de 1 millón de usuarios, detecta los peores horrores de la humanidad y los filtra para ser aceptable para audiencias masivas. Además, el detector ayudaría a eliminar las entradas tóxicas de los grandes conjuntos de datos utilizados para entrenar ChatGPT.

Si bien los usuarios finales recibieron un producto pulido, los trabajadores esenciales de Kenia actuaron como una especie de custodios de IA, escaneando fragmentos de texto que, según se informa, mostraban relatos vívidos de abuso sexual infantil, asesinato, tortura, suicidio e incesto, todo en detalle gráfico.

Advertisement

Según el reportaje, Open AI trabajó con una empresa estadounidense llamada Sama, que es conocida por emplear trabajadores en Kenia, Uganda e India para realizar tareas de etiquetado de datos en nombre de gigantes de Silicon Valley como Google y Meta. Sama era el moderador de contenido más grande de Meta en África antes de este mes cuando la compañía anunció que habían dejado de trabajar juntos debido al “clima económico actual”. Sama y Meta son ahora objeto de una demanda por parte de un ex moderador de contenido que alega que las empresas violaron la constitución de Kenia.

En el caso de OpenAI, los trabajadores de Kenia supuestamente ganaron entre $1,32 y $2 por hora para una empresa que podría conseguir una inyección de efectivo de Microsoft de alrededor de $10 mil millones. Si eso sucede, señala Semafor, OpenAI tendrá un valor de $ 29 mil millones.

Advertisement

OpenAI no respondió de inmediato a la solicitud de comentarios de Gizmodo.

Al igual que algunos moderadores de contenido de otros gigantes de Silicon Valley, los trabajadores de Sama dijeron que su trabajo a menudo se quedaba con ellos después de desconectarse. Uno de esos trabajadores dijo a Time que sufría de visiones recurrentes después de leer la descripción de un hombre teniendo sexo con un perro. “Eso fue una tortura”, dijo el trabajador.

Advertisement

Se dice que los equipos de trabajadores tenían la tarea de leer y etiquetar entre 150 y 250 pasajes de texto en un turno de nueve horas. Aunque se les otorgó la posibilidad de ver a consejeros de bienestar, le dijeron a Time que se sentían mentalmente marcados por el trabajo. Sama cuestionó esas cifras y dijo a Time que solo se esperaba que los trabajadores etiquetaran 70 pasajes por turno.

Sama no respondió de inmediato a la solicitud de comentarios de Gizmodo.

“Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino”, dijo OpenAI en un comunicado enviado a Time. “Clasificar y filtrar [texto e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino”.

Advertisement

Sama, que supuestamente había firmado tres contratos con OpenAI por un valor aproximado de $ 200.000, decidió recientemente salir del espacio de etiquetado de datos dañinos, al menos por ahora. A principios de este mes, la compañía supuestamente anunció que cancelaría el resto de su trabajo con contenido confidencial, tanto para OpenAI como para otros, para centrarse en cambio en “soluciones de anotación de datos de visión por computadora”.

El reportaje revela, con detalles explícitos, las arduas dificultades humanas que sustentan la tecnología supuestamente “artificial”. Aunque las nuevas tecnologías, aparentemente sin fricciones, creadas por las principales empresas tecnológicas del mundo a menudo presumen de su capacidad para resolver grandes problemas con gastos reducidos, la dependencia de OpenAI de los trabajadores de Kenia, como el gran ejército de moderadores de contenido internacional de las empresas de redes sociales, arroja luz sobre las grandes fuerzas laborales humanas a menudo inseparables de un producto final.