Todo comenzó con el proyecto artístico de un fotógrafo ruso llamado Egor Tsvetkov. El artista usó una aplicación disponible en Internet para demostrar lo fácil que es identificar a una persona por su foto. Tres días después, la idea de Tsvetkov ha desatado una pesadilla para muchas actrices porno que se han visto acosadas en redes sociales.

El proyecto de Tsvetkov era del todo inocente. Simplemente quería demostrar hasta que punto nuestra privacidad está en entredicho. Para ello tomó 100 fotos a otros tantos desconocidos por la calle o en el metro, y luego pasó las imágenes por una aplicación llamada Findface. Este software para Android, iOS o web pasa las imágenes por un sistema de reconocimiento basado en una red neural y lo compara con las imágenes de la red social rusa VKontakte. El fotógrafo descubrió que es inquietantemente fácil identificar a una persona con este método. El 70% de los fotografiados aparecieron con nombres y apellidos en la red.

Advertisement

La idea artística de Egor Tsvetkov no tardó en tener repercusión en diferentes medios de comunicación de Rusia, pero los usuarios de Dvach, un foro similar a 4Chan, tuvieron la peor idea posible: usar la aplicación con fotografías de actrices porno y después acosar a las mujeres que identificaron publicando sus imágenes profesionales en los perfiles de sus amigos o familiares. Los usuarios de Dvach incluso justificaban su acoso como una especie de cruzada contra la moralidad de las actrices. Todo ello bien protegidos desde su propio y cobarde anonimato.

VKontakte ha procedido a borrar los hilos en los que se acosaba a las actrices, pero el daño a su derecho a mantener una privacidad ya está hecho. Para empeorar las cosas, según los creadores de Findface han explicado a Tjournal, es imposible bloquear este uso indigno de la aplicación sin cerrarla de todo. Se han comprometido, eso sí, a entregar los datos que tienen de los acosadores a las autoridades para que puedan ser identificados.

En Kaspersky han escrito un extenso post explicando cómo funciona Findface. El problema de este sistema de reconocimiento no es solo que pueda usarse con la peor intención, sino que es inexacto. En cualquier caso, es un ejemplo más de los problemas que puede causar un grupo de intolerantes si se les ofrece una herramienta tan poderosa como una plataforma de inteligencia artificial, por inexacta que sea. [Global Voices vía Kaspersky]


Síguenos también en Twitter, Facebook y Flipboard.