Foto: AP

Pornhub acaba de unirse a Reddit y el servicio de almacenamiento de imágenes Gfycat en su lucha contra los conocidos como Deepfakes. El portal de vídeos porno ha anunciado que eliminará los vídeos en los que aparecen caras de famosas superpuestas mediante algoritmos sobre los cuerpos de actrices porno.

Según informa Motherboard, Pornhub ha llegado a la conclusión de que generar estos falsos vídeos a partir de las facciones de otra persona es claramente sexo no consensual. La plataforma ha comparado los deepfake con el revenge porn y ha anunciado que eliminará cualquier vídeo de ese tipo en la plataforma.

No toleramos ningún tipo de contenido no consensual en nuestra página y eliminamos ese tipo de vídeos tan pronto somos conscientes de su existencia. El contenido no consensual viola nuestras condiciones de servicio, y eso incluye el revenge porn, los deepfakes o cualquier otro contenido subido sobre una persona sin el consentimiento y conocimiento explícitos de esa persona. Estamos eliminando todos los deepfakes subidos por usuarios.

Una rápida búsqueda permite comprobar que aún hay muchos de esos vídeos aún circulando en Pornhub y son tan fáciles de encontrar como buscar “deepfake”. Aparentemente, Pornhub está esperando a que sean los propios usuarios los que denuncien el contenido como inapropiado. Es una manera de operar un poco paradójica teniendo en cuenta que los usuarios llegan a la plataforma precisamente buscando ese tipo de contenidos.

Advertisement

Lo mismo ocurre con Reddit. Pese a que las condiciones de servicio del popular portal prohiben de forma expresa cualquier contenido sexual o con desnudos subido sin el permiso de la persona que aparece en Ă©l, el subreddit de deepfakes (que es muy explĂ­cito) sigue en lĂ­nea y activo. Tan solo parece que se han eliminado algunos vĂ­deos. Gfycat ha explicado que sigue trabajando activamente en eliminar deepfakes.

Además de ser inquietantes, no consensuales y una forma de acoso contra las personas que salen en ellos, prácticamente todos los deepfakes violan además las leyes de copyright. Generalmente usan miles de imágenes extraidas de los motores de búsqueda sin comprobar si esas imágenes tienen o no autor. Aunque puede resultar complicado demostrar el uso de una imagen concreta, Reddit elimina cualquier contenido sobre el que se presente una reclamación de copyright.

El mayor problema de los deepfakes, como apuntan en Wired, es que técnicamente no se pueden considerar una invasión de la privacidad porque, a diferencia de las fotos robadas, se trata de un material falso, un montaje. A priori, los deepfakes están protegidos en Estados por la Primera Enmienda, aunque es posible que puedan ser llevador ante un tribunal como difamación.

Advertisement

Lo más probable es que los autores de deepfakes simplemente se muden a otras plataformas. Eliminar completamente este contenido de Internet va a ser muy complicado. De momento, ya se ven algunos usuarios del subreddit de deepfakes trasladar sus vídeos a Erome, Senvid y otros servicios con políticas más laxas.

No todos los deepfakes son porno. Las técnicas usadas para crearlos se han aplicado para otros propósitos más humorísticos, como poner la cara de Nicholas Cage en todo tipo de películas. [vía Motherboard]