Un nuevo informe sugiere que la protección laxa de moderación de contenidoLas aplicaciones de Mastodon y otras plataformas de redes sociales descentralizadas han llevado a una proliferación de material sobre abuso sexual infantil. Publicado por el Observatorio de Internet de la Universidad de Stanfordnueva investigación
Monday eso demuestra que tales sitios descentralizados tienen serias deficiencias cuando se trata de “infraestructura de seguridad niño «. Todo eso es diferente de la mayoría de plataformas en Internet normal.Cuando hablamos de la web “descentralizada”, por supuesto, nos referimos a las redes sociales “federadas” oel Fediverso”: la constelación flexible de plataformas que evitan la propiedad y la gobernanza centralizadas en favor de un modelo interactivo que prioriza la autonomía y la privacidad del usuario. El Fediverse se ejecuta en una serie de protocolos web gratuitos y de código abierto que permiten a cualquier persona configurar y albergar comunidades sociales a través desus propios servidores o “instancias”.Entre el grupo limitado de plataformas que conforman este ámbito descentralizado, Mastodon es una de las más populares y ampliamente utilizadas en el web. Aún así, junto a Internet centralizado, descentralizado y es un territorio notablemente menos transitado; en su apogeo, Mastodonse jactaba de tener 2,5 millones de usuarios. Puedes comparar esto con los números de usuarios activos diarios recientes de Twitter, querondar los 250 millones
.A pesar de la emocionante promesa del Fediverse, existen problemas obvios con su modelo. Amenazas a la seguridadson un problema continuo. Elfacilidad de uso limitada
del ecosistema también ha sido una fuente de controversia. Y, como señala el nuevo estudio de Stanford, la falta de supervisión centralizada significa que no hay suficientes barreras de seguridad integradas en el ecosistema para defenderse contra la proliferación de contenido ilegal e inmoral. De hecho, los investigadores dicen que Durante un período de dos días, encontraron aproximadamente 600 piezas de contenido CSAM conocido o sospechoso en instancias superiores de Mastodon. Horriblemente, la primera. Una pieza de CSAM que los investigadores encontraron fue descubierta dentro de los primeros cinco minutos de la investigación. En general, los investigadores dicen que el contenido era fácilmente accesible. y podría ser buscado en sitios con facilidad.
El informe desglosa aún más por qué el contenido era tan accesible…
…los malos actores tienden a acudir a la plataforma con las políticas de moderación y aplicación más laxas. Esto significa que las redes descentralizadas, en las que algunas instancias tienen recursos limitados o eligen no actuar, pueden tener dificultades para detectar o mitigar el Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés). Federación actualmente resulta en redundancias e ineficiencias que dificultan detener el CSAM, las imágenes íntimas no consensuales (NCII) y otros contenidos nocivos e ilegales y comportamiento.
Gizmodo se puso en contacto con Mastodon para hacer comentarios sobre la nueva investigación, pero no recibió respuesta. Actualizaremos esta historia si la plataforma responde. .
La web “centralizada” también tiene un problema masivo de CSAM A pesar de las conclusiones del informe de Stanford, cabe considerar que el hecho de que un sitio esté “centralizado” o tenga “supervisión” no significa que tiene menos contenido ilegal. De hecho, investigaciones recientes han demostrado que la mayoría de las principales plataformas de redes socialesestán nadando con material de abuso infantil
. Incluso si un sitio tiene un sistema avanzado de moderación de contenido, eso no significa que ese sistema sea particularmente bueno para identificar y eliminar contenido despreciable.Caso en cuestión: en febrero,un informe
del New York Times mostró que Twitter había eliminado unas asombrosas 400.000 cuentas de usuario por haber “creado, distribuido o involucrado con CSAM. ” A pesar de la eliminación proactiva de cuentas por parte de la aplicación Bird, el informe señaló que el equipo de seguridad de Twitter parecía estar “fallando” en su misión de librar la plataforma de cantidades alucinantes de material de abuso. De manera similar, un reciente Wall Street Journalinvestigación
mostró que no sólo hay una cantidad impresionante de material de abuso infantil flotando por Instagram, sino que los algoritmos de la plataforma habían activamente “ promovió”dicho contenido entre los pedófilos. De hecho, según el artículo del Journal, Instagram ha sido responsable de guiar a los pedófilos hacia los vendedores de contenido [CSAM] a través de sistemas de recomendación que sobresalen en vincular a aquellos que comparten nichos de interés”. Tras la publicación del informe del Journal, la empresa matriz de Instagram, Meta dijo que había creado un equipo interno para tratar.
La necesidad de “nuevas herramientas para un nuevo entorno»
Si bien tanto las redes centralizadas como las descentralizadas luchan claramente contra la proliferación de CSAM, el investigador principal del nuevo informe de Stanford, David Thiel, dice que el Fediverse es particularmente vulnerable a este problema. Claro, las plataformas “centralizadas” pueden no ser particularmente buenas para identificar contenido ilegal, pero si lo tienen Para eliminarlo, tienen las herramientas para hacerlo. Mientras tanto, plataformas como Mastodon carecen de la infraestructura distribuida para lidiar con CSAM en escala, dice Thiel.
“Casi no existen herramientas integradas en Fediverse para ayudar a gestionar el problema, mientras que las grandes plataformas pueden rechazar CSAM conocido de forma automatizada de manera muy fácilmente”, Thiel le dijo a Gizmodo en un correo electrónico. “Las plataformas centrales tienen la máxima autoridad para el contenido y tienen la capacidad de detenerlo cuando tanto como sea posible, pero en Fediverse simplemente cortas los servidores con malos actores y sigues adelante, lo que significa que el contenido sigue siendo distribuido y todavía dañando a las víctimas”.
“El problema, en mi opinión, no es que la descentralización sea de alguna manera peor, sino que cada herramienta técnica disponible para combatir el CSAM fue diseñada con un pequeño número de plataformas centralizadas en mente. Necesitamos nuevas herramientas para un nuevo entorno, que requerirá recursos de ingeniería y financiación. ”