Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

Esta app basada en algoritmos de reconocimiento de imagen pone cualquier cara en un vídeo porno

We may earn a commission from links on this page.

La IA ha descendido un nuevo peldaño en lo que a privacidad se refiere. La moda se llama deepfake, y consiste en poner la cara de personas conocidas en vídeos porno mediante algoritmos. El resultado es alarmantemente convincente y las aplicaciones de reconocimiento de imagen están facilitando su uso.

Advertisement

La tendencia no es nueva. Hace apenas un mes hablábamos de cómo algunos usuarios de Reddit habían logrado utilizar algoritmos de Machine Learning para unir el rostro de mujeres conocidas al cuerpo de actrices porno para crear vídeos falsos protagonizados por famosas. El éxito de esos vídeos ha propiciado la aparición de FakeApp, una aplicación que hace alarmantemente sencillo meter la cara de cualquiera en un vídeo porno.

Para que uno de estos montajes resulte creíble es preciso recopilar bastantes fotos o vídeos de la misma persona. Desafortunadamente para la privacidad, esto no es excesivamente difícil hoy en día. Basta usar alguna de las aplicaciones que permiten descargar fotos o vídeos sin permiso de sus usuarios en redes sociales.

Advertisement
Advertisement

El siguiente paso es encontrar una actriz porno que ya tenga cierto parecido físico con la víctima. De nuevo, para lograr esto tampoco hay que ir muy lejos. Páginas como Pornstarbyface usan algoritmos precisamente para satisfacer la curiosidad morbosa de a qué actriz de cine para adultos se parece tal o cual mujer. Sí, la herramienta está limitada a mujeres.

El paso final es FakeApp, una aplicación para Windows que usa todas las fotos de la víctima para crear un vídeo porno aparentemente protagonizado por ella. La aplicación hasta tiene ya tutoriales en YouTube.

Basta darse un paseo por el foro de Reddit dedicado a los deepfakes para ver multitud de peticiones para crear vídeos porno con tal o cual persona. Amigas, jefas, compañeras de clase, ex-novias. La lista es tan larga como vergonzosa.

Advertisement

Lo más preocupante del asunto es que, como explican en Wired, la nueva tendencia es legal. En la mayor parte de países puedes acabar en la cárcel por hacer públicas fotos desnudas de una persona sin su consentimiento, pero la cosa se complica cuando no se trata del cuerpo de esa persona, sino de un montaje que, además, reconoce de antemano que lo es.

Si el falso vídeo porno no tiene ánimo de lucro puede acogerse al derecho a la parodia por sangrante y humillante que sea para su protagonista. El único recurso de la víctima, por ahora, es recurrir a su derecho al honor y acusar a los autores de difamación, pero es un camino largo y no necesariamente efectivo. Una vez más, los usuarios de Internet se empeñan en enseñarnos primero el peor uso posible a la inteligencia artificial.. [Reddit vía Motherboard]