El lado oscuro de la IA: usan una red neural para acosar a actrices porno en redes sociales

Todo comenzó con el proyecto artístico de un fotógrafo ruso llamado Egor Tsvetkov. El artista usó una aplicación disponible en Internet para demostrar lo fácil que es identificar a una persona por su foto. Tres días después, la idea de Tsvetkov ha desatado una pesadilla para muchas actrices porno que se han visto acosadas en redes sociales.

Advertisement

El proyecto de Tsvetkov era del todo inocente. Simplemente quería demostrar hasta que punto nuestra privacidad está en entredicho. Para ello tomó 100 fotos a otros tantos desconocidos por la calle o en el metro, y luego pasó las imágenes por una aplicación llamada Findface. Este software para Android, iOS o web pasa las imágenes por un sistema de reconocimiento basado en una red neural y lo compara con las imágenes de la red social rusa VKontakte. El fotógrafo descubrió que es inquietantemente fácil identificar a una persona con este método. El 70% de los fotografiados aparecieron con nombres y apellidos en la red.

La idea artística de Egor Tsvetkov no tardó en tener repercusión en diferentes medios de comunicación de Rusia, pero los usuarios de Dvach, un foro similar a 4Chan, tuvieron la peor idea posible: usar la aplicación con fotografías de actrices porno y después acosar a las mujeres que identificaron publicando sus imágenes profesionales en los perfiles de sus amigos o familiares. Los usuarios de Dvach incluso justificaban su acoso como una especie de cruzada contra la moralidad de las actrices. Todo ello bien protegidos desde su propio y cobarde anonimato.

VKontakte ha procedido a borrar los hilos en los que se acosaba a las actrices, pero el daño a su derecho a mantener una privacidad ya está hecho. Para empeorar las cosas, según los creadores de Findface han explicado a Tjournal, es imposible bloquear este uso indigno de la aplicación sin cerrarla de todo. Se han comprometido, eso sí, a entregar los datos que tienen de los acosadores a las autoridades para que puedan ser identificados.

Advertisement

En Kaspersky han escrito un extenso post explicando cómo funciona Findface. El problema de este sistema de reconocimiento no es solo que pueda usarse con la peor intención, sino que es inexacto. En cualquier caso, es un ejemplo más de los problemas que puede causar un grupo de intolerantes si se les ofrece una herramienta tan poderosa como una plataforma de inteligencia artificial, por inexacta que sea. [Global Voices vía Kaspersky]

Advertisement

Síguenos también en Twitter, Facebook y Flipboard.

Share This Story

About the author

Carlos Zahumenszky

Editor en Gizmodo, fotógrafo y guardián de la gran biblioteca de artículos. A veces llevo una espada.

EmailTwitterPosts
PGP Fingerprint: BA3C91077C1CF6A7C6133D7CD3C89018CB814014PGP Key