Imagen: YouTube / Pexels / Gizmodo.

YouTube dice que han eliminado los anuncios publicitarios de unos 2 millones de vídeos y más de 50.000 canales que publicaban contenido perturbador dirigido a los niños. Algunos de esos vídeos incluso explotaban a los niños, y aunque sabemos que YouTube se esfuerza por mantener las cosas malas fuera de su plataforma, el hecho de que existan decenas de miles de canales que se dedican a hacerle cosas malas a los niños es escalofriante.

Advertisement

Hace algunas semanas comenzó una protesta pública dirigida a los vídeos perturbadores para niños de YouTube. Varios informes señalaron vídeos que parecían aptos para niños en los que se muestra a personajes de Disney en bikini coqueteando con otros personajes populares infantiles, además de otros temas inapropiados. El problema fue aún peor cuando cuando comenzaron a aparecer recomendados en la app de YouTube Kids vídeos de personajes de caricaturas tratando temas como el suicidio y la tortura. También existían vídeos en los que aparecían niños amarrados, aparentemente siendo heridos o involucrados en otras situaciones de explotación.

YouTube rápidamente abordó el problema anunciando sus planes de restringir este tipo de contenido por edad e impedir su monetización. La compañía dijo a Vice News que habían “eliminado más de 270 cuentas y 150.000 vídeos”, además de “desactivar los comentarios en más de 625.000 vídeos dirigidos a depredadores de niños”. YouTube también dijo que han “eliminado los anuncios publicitarios de unos 2 millones de vídeos y más de 50.000 canales disfrazados como contenido familiar”.

Las noticias de las acciones de YouTube contra millones de vídeos perturbadores surgieron después de que se desatara otra polémica. El pasado fin de semana algunas personas reportaron que escribir “how to have” (cómo tener) en la caja de búsquedas de YouTube, completaba la frase con “how to hace s*x with kids” (cómo tener sexo con niños) y “how to have s*x at school” (cómo tener sexo en la escuela). Buscar esos términos llevaba a vídeos con títulos como “Juegos inapropiados que jugabas de niño”, los cuales involucraban imágenes de niños besándose y “La escuela es dura pero también lo es tu profesor de matemáticas” con la imagen de una niña llorando siendo tocada por un hombre mayor. Los vídeos tienen 23 y 117 millones de vistas, respectivamente, no es difícil imaginar por qué aparecen en la cima de las recomendaciones.

Advertisement

YouTube dice que han eliminado estas grotescas búsquedas sugeridas para niños, y eso es bueno. Pero la persistencia de esta clase de problemas nos genera preguntas más importantes sobre la capacidad de YouTube de moderar el contenido perturbador. No me refiero a vídeos como “asustando al vecindario equivocado”, sino a aquellos dirigidos a los niños y que buscan personas malvadas, como los pedófilos.

El problema con estos vídeos es cómo parecen mantenerse en los límites de lo aceptable. YouTube depende de algoritmos y filtros para que el mal contenido se mantenga fuera de su plataforma. Los vídeos y los canales son eliminados por moderadores humanos, pero sola mente después de que alguien los reportó. Mientras tanto encontrarás sugerencias de tipo “cómo tener s*xo en la escuela” además de otros vídeos similares. Eliminar todas estas sugerencias y vídeos pareciera ser tarea imposible, especialmente debido a que los usuarios suben a YouTube unas 400 horas de contenido cada hora.

Los algoritmos son imperfectos. Las computadoras tienen dificultades en identificar ese valle inquietante que separa un vídeo inofensivo de uno completamente inapropiado. Afortunadamente, los vídeos que violan los términos de servicio de YouTube (aquellos que violan derechos de autor, que son explícitos, ilegales, están llenos de desnudos o explotan niños, por ejemplo) pueden ser reportados y eliminados. YouTube también usa filtros mediante algoritmos para atrapar estos vídeos antes de que sean publicados. El sistema no es perfecto, pero YouTube parece estar comprometido a la tarea.

Advertisement

Es muy difícil señalar a un culpable. ¿Es culpa de una compañía de tecnología que los seres humanos sean horribles, abusivos y explotadores? Por supuesto que no. YouTube soporta una carga enorme en lo que respecta a decidir cómo entran los vídeos a su plataforma y cómo mantener fuera los malvados. Es difícil sorprenderse cuando la plataforma falla en detectar cada uno de los vídeos inapropiados que suben los usuarios, pero de igual forma esos vídeos son un problema. Queda por ver si eso dice más de las limitaciones de YouTube o las perversiones humanas.