La IA ha descendido un nuevo pelda√Īo en lo que a privacidad se refiere. La moda se llama deepfake, y consiste en poner la cara de personas conocidas en v√≠deos porno mediante algoritmos. El resultado es alarmantemente convincente y las aplicaciones de reconocimiento de imagen est√°n facilitando su uso.

Advertisement

La tendencia no es nueva. Hace apenas un mes hablábamos de cómo algunos usuarios de Reddit habían logrado utilizar algoritmos de Machine Learning para unir el rostro de mujeres conocidas al cuerpo de actrices porno para crear vídeos falsos protagonizados por famosas. El éxito de esos vídeos ha propiciado la aparición de FakeApp, una aplicación que hace alarmantemente sencillo meter la cara de cualquiera en un vídeo porno.

Para que uno de estos montajes resulte creíble es preciso recopilar bastantes fotos o vídeos de la misma persona. Desafortunadamente para la privacidad, esto no es excesivamente difícil hoy en día. Basta usar alguna de las aplicaciones que permiten descargar fotos o vídeos sin permiso de sus usuarios en redes sociales.

El siguiente paso es encontrar una actriz porno que ya tenga cierto parecido físico con la víctima. De nuevo, para lograr esto tampoco hay que ir muy lejos. Páginas como Pornstarbyface usan algoritmos precisamente para satisfacer la curiosidad morbosa de a qué actriz de cine para adultos se parece tal o cual mujer. Sí, la herramienta está limitada a mujeres.

Advertisement

El paso final es FakeApp, una aplicación para Windows que usa todas las fotos de la víctima para crear un vídeo porno aparentemente protagonizado por ella. La aplicación hasta tiene ya tutoriales en YouTube.

Basta darse un paseo por el foro de Reddit dedicado a los deepfakes para ver multitud de peticiones para crear v√≠deos porno con tal o cual persona. Amigas, jefas, compa√Īeras de clase, ex-novias. La lista es tan larga como vergonzosa.

Advertisement

Lo m√°s preocupante del asunto es que, como explican en Wired, la nueva tendencia es legal. En la mayor parte de pa√≠ses puedes acabar en la c√°rcel por hacer p√ļblicas fotos desnudas de una persona sin su consentimiento, pero la cosa se complica cuando no se trata del cuerpo de esa persona, sino de un montaje que, adem√°s, reconoce de antemano que lo es.

Si el falso v√≠deo porno no tiene √°nimo de lucro puede acogerse al derecho a la parodia por sangrante y humillante que sea para su protagonista. El √ļnico recurso de la v√≠ctima, por ahora, es recurrir a su derecho al honor y acusar a los autores de difamaci√≥n, pero es un camino largo y no necesariamente efectivo. Una vez m√°s, los usuarios de Internet se empe√Īan en ense√Īarnos primero el peor uso posible a la inteligencia artificial.. [Reddit v√≠a Motherboard]