Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

"Veía a gente recibiendo tiros en la cara": moderadores de TikTok demandan a la empresa por trauma laboral

Afirman que la empresa violó las leyes laborales de California al no ofrecer un tratamiento adecuado para el trauma por exposición a imágenes dañinas

By
We may earn a commission from links on this page.
Imagen para el artículo titulado "Veía a gente recibiendo tiros en la cara": moderadores de TikTok demandan a la empresa por trauma laboral
Foto: Martin Bureau (Getty Images)

Un pequeño ejército de moderadores con exceso de trabajo es la última línea de defensa contra la avalancha de contenido depravado y horrible que se sube a las redes sociales. Si bien los moderadores ayudan a los usuarios normales a evitar lo peor de lo peor, la exposición constante a los impulsos más oscuros de la humanidad puede causar estragos en su salud mental. Ahora, dos exmoderadores de TikTok alegan que el gigante de las redes sociales escatimó en el tratamiento de salud mental de sus moderadores.

“Veía gente recibiendo disparos en la cara”, dijo uno en una entrevista con NPR. “Y otro video de un niño siendo golpeado me hizo llorar durante dos horas seguidas”.

Advertisement

La demanda, presentada el jueves, afirma que TikTok y su empresa matriz, ByteDance, violaron las leyes laborales de California al no garantizar que los moderadores estuvieran adecuadamente protegidos del trauma emocional causado por la exposición a las imágenes. Los moderadores, afirma la demanda, actúan como “los guardianes entre el contenido ofensivo, repugnante y sin filtrar subido a la aplicación y los cientos de millones de personas que usan la aplicación todos los días”. La demanda acusa específicamente a TikTok de negligencia y violaciones de la ley de competencia desleal de California.

“Los acusados ​​[TikTok y ByteDance] son ​​conscientes de los efectos psicológicos negativos que tiene para los moderadores ver contenido gráfico e inaceptable”, argumenta la demanda. “A pesar de esto, los acusados ​​no implementan estándares reconocidos de atención para proteger a los moderadores de estos daños”.

Advertisement
Advertisement

A estas alturas, no es ningún secreto que los moderadores de contenido tengan que interactuar con material horrible, pero la demanda afirma que moderar TikTok es en realidad peor que otras plataformas. Mientras que otras empresas implementan algunos esfuerzos de mitigación de daños recomendados por grupos de la industria, como utilizar tecnología de filtrado para distorsionar imágenes o brindar asesoramiento obligatorio a los moderadores, TikTok no lo hace, según la demanda. “Esta exposición absoluta e insensible hacia la implementación de estándares de atención, resultó en que los demandantes [los moderadores] estuvieran expuestos a miles de videos gráficos e inaceptables, que incluyen violencia gráfica, agresión sexual y pornografía infantil”, alega la demanda.

Los ex moderadores de TikTok, Ashley Velez y Reece Young, afirman que no aliviaron el tratamiento de salud mental adecuado, lo que a su vez condujo a un ambiente de trabajo inseguro. Los dos moderadores afirman que estuvieron expuestos a una larga lista de la mierda más horrible en Internet: videos de pornografía infantil, violaciones, zoofilia, asesinatos, decapitaciones y suicidios cruzaron sus escritorios.

Young dijo haber visto a una niña de 13 años ser ejecutada por un miembro del cartel. Vélez dijo a NPR que las imágenes y los videos que involucraban a niños menores de edad representaban la gran mayoría del contenido preocupante al que estuvo expuesta. “Alguien tiene que sufrir y ver estas cosas para que nadie más tenga que hacerlo”, dijo Vélez a NPR.

La demanda afirma que las cuotas de productividad impuestas a los trabajadores son “irreconciliables con los estándares de atención aplicables”.

Advertisement

Según la demanda, se les dice a los moderadores que revisen los videos durante no más de 25 segundos y emitan juicios con más del 80% de precisión sobre si un video determinado viola o no las reglas de TikTok. Dentro de esos 25 segundos, los moderadores tienen que pensar y considerar 100 etiquetas posibles que podrían aplicarse para etiquetar contenido problemático, dijeron los demandantes. Los moderadores trabajan en turnos de 12 horas con un descanso para almorzar de una hora y dos descansos de quince minutos, según la demanda.

“Al examinar las publicaciones de las redes sociales en busca de contenido objetable, los moderadores de contenido son nuestros soldados de primera línea en una guerra contra la depravación: una guerra que todos tenemos interés en ganar”, dijo Steven Williams, uno de los abogados que representan a los moderadores de TikTok en un comunicado. “El trauma psicológico y los trastornos cognitivos y sociales que enfrentan estos trabajadores es grave. Pero están siendo ignorados y los problemas solo empeorarán, para la empresa y para estas personas”.

Advertisement
Imagen para el artículo titulado "Veía a gente recibiendo tiros en la cara": moderadores de TikTok demandan a la empresa por trauma laboral
Foto: The Washington Post (Getty Images)

Además de esa montaña de terror digital, la demanda afirma que los moderadores también están expuestos regularmente a torrentes de teorías de conspiración e información falsa, particularmente sobre el covid-19, que según sus abogados también provoca reacciones traumáticas.

Advertisement

Cabe señalar que Vélez y Young eran contratistas que trabajaban a través de las empresas Telus International y Atrium Staffing Services, respectivamente. Aunque ambos moderadores técnicamente trabajan para compañías separadas, la demanda busca responsabilizar a TikTok y ByteDance, argumentando que es el que establece cuotas, monitorea a los trabajadores y está a cargo de las acciones disciplinarias. Aunque un portavoz de Telus International dijo a NPR que brindan asesoramiento sobre salud mental a los contratistas, Vélez afirma que es muy insuficiente. La moderadora dijo que solo tuvo una reunión de 30 minutos con un consejero inundado de solicitudes de otros moderadores angustiados.

Con la demanda, los abogados de los moderadores esperan obtener una compensación financiera para Vélez y Young y presionar a TikTok para que examine y brinde tratamientos de salud mental a sus miles de moderadores de contenido actuales y anteriores. Gizmodo se acercó a la empresa para hacer comentarios, pero no ha recibido respuesta.

Advertisement

Los moderadores afirmaron, como es el caso de muchos otros moderadores de empresas tecnológicas rivales, que estaban obligados a firmar acuerdos de confidencialidad que les impedían hablar sobre las imágenes que veían. Después de un día de trabajar duro en los rincones más oscuros de la humanidad, los trabajadores tienen que enterrar esas historias y no hablar de ellas con amigos o incluso familiares.

Si bien TikTok, al igual que otros proveedores de contenido importantes, implementa inteligencia artificial para capturar la mayor parte del contenido problemático, la frenética avalancha de contenido potencialmente dañino que se sube en sus sitios significa que los moderadores humanos siguen siendo indispensables. Estos moderadores, en general, suelen ser contratistas independientes que trabajan por salarios más bajos con menos seguridad laboral y menos beneficios que los trabajadores empleados en empresas de tecnología.

Advertisement

Investigadores de la Universidad de Texas y la Universidad de St. Mary publicaron un artículo el año pasado que estudia la literatura académica sobre moderadores de contenido y encontraron una amplia evidencia de exposición repetida a contenido dañino que conduce a trastorno de estrés postraumático y otros daños psicológicos.

“Si bien se puede esperar que el trabajo de moderación sea desagradable, hoy en día se reconoce que la exposición repetida y prolongada a contenido específico, junto con un apoyo limitado en el lugar de trabajo, puede afectar significativamente el bienestar psicológico de los moderadores humanos”, escriben los investigadores.

Advertisement

En otros casos, los moderadores de Youtube y Facebook fueron hospitalizados por ansiedad y depresión agudas después de una exposición repetida al contenido. Desafortunadamente para todos, Internet no se está volviendo mejor. Solo esta semana, el Centro Nacional para Niños Desaparecidos y Explotados dijo que el año pasado se eliminaron de Internet 29,3 millones de elementos de material de abuso sexual infantil. Eso es un récord y un aumento del 35% de la cantidad de material eliminado el año anterior.

Los problemas de salud mental que afectan a los moderadores de contenido en toda la industria tecnológica han ganado la atención del público en los últimos años gracias a una gran cantidad de informes reveladores y otras acciones legales. Numerosos medios de comunicación han documentado los entornos de trabajo a menudo impactantes para los moderadores en Facebook y Youtube , aunque se ha escrito poco comparable sobre los moderadores de TikTok.

Advertisement

Hace dos años, Facebook resolvió una demanda presentada en su contra por miles de moderadores por 52 millones de dólares. El mismo bufete de abogados que representa a Vélez y Young también representó a los moderadores de Facebook. Ese acuerdo se originó originalmente de una demanda de 2018 presentada por la moderadora de Facebook, Selena Scola, quien afirmó que había desarrollado estrés postraumático después de ver casos de violación, suicidio y asesinato durante su trabajo. El acuerdo de $ 52 millones se dispersó entre miles de contratos y cada uno recibió al menos $ 1000 en compensación. Una ex moderadora de contenido de Youtube también demandó a su empleador en 2020, alegando que desarrolló depresión y síntomas asociados con el trastorno de estrés postraumático después de ver decapitaciones e imágenes de abuso infantil. Es lógico que TikTok, una de las redes sociales de más rápido crecimiento, también se haya encontrado en el extremo receptor de un litigio.