Foto: AP

Pornhub acaba de unirse a Reddit y el servicio de almacenamiento de imágenes Gfycat en su lucha contra los conocidos como Deepfakes. El portal de vídeos porno ha anunciado que eliminará los vídeos en los que aparecen caras de famosas superpuestas mediante algoritmos sobre los cuerpos de actrices porno.

Advertisement

Seg√ļn informa Motherboard, Pornhub ha llegado a la conclusi√≥n de que generar estos falsos v√≠deos a partir de las facciones de otra persona es claramente sexo no consensual. La plataforma ha comparado los deepfake con el revenge porn y ha anunciado que eliminar√° cualquier v√≠deo de ese tipo en la plataforma.

No toleramos ning√ļn tipo de contenido no consensual en nuestra p√°gina y eliminamos ese tipo de v√≠deos tan pronto somos conscientes de su existencia. El contenido no consensual viola nuestras condiciones de servicio, y eso incluye el revenge porn, los deepfakes o cualquier otro contenido subido sobre una persona sin el consentimiento y conocimiento expl√≠citos de esa persona. Estamos eliminando todos los deepfakes subidos por usuarios.

Una r√°pida b√ļsqueda permite comprobar que a√ļn hay muchos de esos v√≠deos a√ļn circulando en Pornhub y son tan f√°ciles de encontrar como buscar ‚Äúdeepfake‚ÄĚ. Aparentemente, Pornhub est√° esperando a que sean los propios usuarios los que denuncien el contenido como inapropiado. Es una manera de operar un poco parad√≥jica teniendo en cuenta que los usuarios llegan a la plataforma precisamente buscando ese tipo de contenidos.

Advertisement

Lo mismo ocurre con Reddit. Pese a que las condiciones de servicio del popular portal prohiben de forma expresa cualquier contenido sexual o con desnudos subido sin el permiso de la persona que aparece en él, el subreddit de deepfakes (que es muy explícito) sigue en línea y activo. Tan solo parece que se han eliminado algunos vídeos. Gfycat ha explicado que sigue trabajando activamente en eliminar deepfakes.

Adem√°s de ser inquietantes, no consensuales y una forma de acoso contra las personas que salen en ellos, pr√°cticamente todos los deepfakes violan adem√°s las leyes de copyright. Generalmente usan miles de im√°genes extraidas de los motores de b√ļsqueda sin comprobar si esas im√°genes tienen o no autor. Aunque puede resultar complicado demostrar el uso de una imagen concreta, Reddit elimina cualquier contenido sobre el que se presente una reclamaci√≥n de copyright.

El mayor problema de los deepfakes, como apuntan en Wired, es que técnicamente no se pueden considerar una invasión de la privacidad porque, a diferencia de las fotos robadas, se trata de un material falso, un montaje. A priori, los deepfakes están protegidos en Estados por la Primera Enmienda, aunque es posible que puedan ser llevador ante un tribunal como difamación.

Advertisement

Lo más probable es que los autores de deepfakes simplemente se muden a otras plataformas. Eliminar completamente este contenido de Internet va a ser muy complicado. De momento, ya se ven algunos usuarios del subreddit de deepfakes trasladar sus vídeos a Erome, Senvid y otros servicios con políticas más laxas.

No todos los deepfakes son porno. Las técnicas usadas para crearlos se han aplicado para otros propósitos más humorísticos, como poner la cara de Nicholas Cage en todo tipo de películas. [vía Motherboard]