Los moderadores de YouTube que revisan 300 vídeos al día

Al igual que Meta, YouTube también emplea un ejército de trabajadores contratados para supervisar los sistemas de detección de IA que mantienen su plataforma relativamente libre de toxicidad.
Los ex-moderadores, algunos de los cuales han presentado demandas contra la empresa, afirman que se esperaba que revisaran de 100 a 300 piezas de contenido por día con una tasa de error esperada de entre el 2 % y el 5 %. Esos vídeos incluían escenas de mutilación de animales, violaciones de niños y asesinato. Los ex moderadores dicen que no recibieron el entrenamiento (o siquiera la advertencia) adecuados para hacer frente a esa carga. En algunos casos, según un ex-moderador de YouTube, los empleadostuvieron que pagar su propio tratamiento médico para lidiar con el trauma provocado por su trabajo.