La IA ha descendido un nuevo peldaño en lo que a privacidad se refiere. La moda se llama deepfake, y consiste en poner la cara de personas conocidas en vídeos porno mediante algoritmos. El resultado es alarmantemente convincente y las aplicaciones de reconocimiento de imagen están facilitando su uso.

Advertisement

La tendencia no es nueva. Hace apenas un mes hablábamos de cómo algunos usuarios de Reddit habían logrado utilizar algoritmos de Machine Learning para unir el rostro de mujeres conocidas al cuerpo de actrices porno para crear vídeos falsos protagonizados por famosas. El éxito de esos vídeos ha propiciado la aparición de FakeApp, una aplicación que hace alarmantemente sencillo meter la cara de cualquiera en un vídeo porno.

Para que uno de estos montajes resulte creĂ­ble es preciso recopilar bastantes fotos o vĂ­deos de la misma persona. Desafortunadamente para la privacidad, esto no es excesivamente difĂ­cil hoy en dĂ­a. Basta usar alguna de las aplicaciones que permiten descargar fotos o vĂ­deos sin permiso de sus usuarios en redes sociales.

El siguiente paso es encontrar una actriz porno que ya tenga cierto parecido físico con la víctima. De nuevo, para lograr esto tampoco hay que ir muy lejos. Páginas como Pornstarbyface usan algoritmos precisamente para satisfacer la curiosidad morbosa de a qué actriz de cine para adultos se parece tal o cual mujer. Sí, la herramienta está limitada a mujeres.

Advertisement

El paso final es FakeApp, una aplicaciĂłn para Windows que usa todas las fotos de la vĂ­ctima para crear un vĂ­deo porno aparentemente protagonizado por ella. La aplicaciĂłn hasta tiene ya tutoriales en YouTube.

Basta darse un paseo por el foro de Reddit dedicado a los deepfakes para ver multitud de peticiones para crear vídeos porno con tal o cual persona. Amigas, jefas, compañeras de clase, ex-novias. La lista es tan larga como vergonzosa.

Advertisement

Lo más preocupante del asunto es que, como explican en Wired, la nueva tendencia es legal. En la mayor parte de países puedes acabar en la cárcel por hacer públicas fotos desnudas de una persona sin su consentimiento, pero la cosa se complica cuando no se trata del cuerpo de esa persona, sino de un montaje que, además, reconoce de antemano que lo es.

Si el falso vídeo porno no tiene ánimo de lucro puede acogerse al derecho a la parodia por sangrante y humillante que sea para su protagonista. El único recurso de la víctima, por ahora, es recurrir a su derecho al honor y acusar a los autores de difamación, pero es un camino largo y no necesariamente efectivo. Una vez más, los usuarios de Internet se empeñan en enseñarnos primero el peor uso posible a la inteligencia artificial.. [Reddit vía Motherboard]