Saltar al contenido
Tecnología

Los deepfakes en tiempos de guerra realmente están desdibujando la realidad, según el primer estudio importante

Un estudio, primero en su tipo, sobre los deepfakes en tiempos de guerra muestra que los usuarios de redes sociales rápidamente etiquetaron los medios reales como alterados digitalmente cuando no estaban de acuerdo con ello.
Por

Tiempo de lectura 7 minutos

El 14 de marzo, apenas un mes después de que las tropas rusas irrumpieran en el oeste de Ucrania para comenzar una larga y sangrienta batalla de un año, el presidente ucraniano Vladimir Zelensky apareció en una estación de televisión ucraniana y anunció su rendición incondicional. Apareció el presidente, vestido con su ahora icónica camisa de manga larga verde militar mirar fijamente a una cámara y afirmar que el ejército ucraniano estaba “capitulando” y “entregaría las armas”.

Otro breve vídeo apareció en las redes sociales aproximadamente al mismo tiempo y parecía mostrar al contraste de Zelensky, el presidente ruso Vladimir Putin, pronunciando de manera similar una acuerdo de paz.

“Hemos logrado alcanzar la paz con Ucrania”, parece decir Putin sentado detrás de un escritorio de madera.

Tanto los videos de Zelensky como los de Putin fueron compartidos decenas de miles de veces en varios sitios de redes sociales. materializado en el mundo usando tecnología deepfake impulsados por modelos de inteligencia artificial de aprendizaje profundo. Se encuentran entre los ejemplos más claros hasta la fecha de una realidad que alguna vez fue teórica: videos deepfake convertidos en armas durante guerra.

Cualquiera con incluso un mínimo de entrenamiento en la detección de medios alterados digitalmente probablemente podría sentir algo extraño en los dos videos de rendición. Ambos clips tenían características extrañas. Gestos faciales e luces y sombras antinaturales, cada uno de los cuales es un signo revelador de manipulación de la IA.

Pero, aunque los dos videos fueron rápidamente desacreditados, su rápida proliferación en línea generó una avalancha de comentarios y artículos de noticias que advertían sobre la Peligro real de que se utilicen videos alternos para confundir y dividir al público durante tiempos de guerra. Nuevas investigaciones sugieren este aumento Los deepfakes y la ansiedad en torno a su distribución podrían estar contribuyendo a un problema aún más difícil de resolver: la gente rápidamente ignora los medios legítimos como deepfakes. Esto, a su vez, conduce a una mayor erosión de la confianza en lo que es real en línea.

Esos fueron algunos de los hallazgos que los investigadores de la Universidad College Cork observaron como parte de un estudio reciente publicado en la revista PLOS ONE. Los investigadores seleccionaron casi 5.000 tweets publicados durante los primeros siete meses de 2022 en un esfuerzo por analizar el papel que los deepfakes pueden desempeñar en Desinformación y propaganda en tiempos de guerra. Es el primer estudio de este tipo que analiza empíricamente el efecto de los deepfakes durante tiempos de guerra.

Aunque el estudio revela muchas imágenes y vídeos manipulados por IA, una parte impactante de los tweets que supuestamente hablan de deepfakes en realidad involucran a usuarios caracterizando falsamente imágenes y videos reales y legítimos como alterados digitalmente. Los hallazgos primeros de su tipo añaden nueva evidencia para reforzar los temores de Los antiguos investigadores de deepfake que temen que la creciente calidad y proliferación de videos deepfake en línea podrían llevar a un escenario insidioso en el que Los malos actores pueden simplemente afirmar que un video era “deepfake” para descartarlo. 

“Lo que encontramos fue que la gente lo usaba [el término deepfake] como una palabra de moda para atacar a personas en línea», Escuela de Aplicada de UCC El investigador en psicología y coautor del estudio, John Twomey, le dijo a Gizmodo. Los deepfakes, como el término “bot” o “noticias falsas” antes, son ser convertido en un arma contra los medios o usuarios de la información simplemente no está de acuerdo.

“[El estudio] resalta cómo las personas están usando la idea de los deepfakes y volviéndose hiperescépticas, en muchos sentidos, hacia los medios reales. , especialmente cuando los deepfakes no prevalecen ampliamente tal como están”, añadió. “Más personas son conscientes de los deepfakes en lugar de ellos siendo realmente prevalentes.

Gran parte de ese desajuste se debe a la cobertura excesiva del tema por parte de los medios de comunicación. Irónicamente, la cobertura bien intencionada de los periodistas advierte sobre los peligros. de los deepfakes pueden contribuir involuntariamente a un empeoramiento de la confianza en los medios en general.

“Necesitamos considerar si el enfoque de las noticias en los deepfakes es desproporcionado con respecto a la amenaza que enfrentamos actualmente y si esta respuesta está creando más desconfianza y contribuyendo a una crisis epistémica», escribieron los investigadores.

¿Qué encontró el estudio?

El estudio, acertadamente titulado “¿Los vídeos deepfake socavan nuestra confianza epistémica??”, buscó analizar las formas en que las discusiones sobre deepfakes durante tiempos de guerra podrían degradar el conocimiento público y la verdad compartida. Utilizando la API de Twitter, El investigador sacó 4869 tweets relevantes sobre deepfakes entre el 1 de enero de 2022 y el 1 de agosto del mismo año. Twomey dice que los investigadores decidió centrarse en Twitter porque tiende a centrarse más en el periodismo y el activismo político que otras plataformas de redes sociales donde se publican deepfakes o debates. de ellos pueden proliferar.

El investigador vio un aumento en el contenido relacionado con deepfake en Twitter en las semanas previas a la invasión de Rusia, con sitios de noticias y comentaristas especulando sobre si o no Putin utilizaría medios alterados como parte de un ardid para justificar una acción militar. Los tweets aparecieron entre el 14 y el 16 de marzo, justo cuando los videos de Zelensky y Putin comenzaron a ganar atención. Aunque muchos de Twitter Los usuarios que respondieron al tuit de Zelensky criticaron la calidad del deepfake, mientras que otros lo describieron con temor como una potencial nueva arma de guerra.

“Pensarías que los deepfakes son inofensivos si solo has visto videos tontos de Keanu Reeves deepfake”, decía uno de los tweets. “Desafortunadamente Los deepfakes pueden ser un tipo nuevo y despiadado de propaganda”, tuiteó un usuario. “Lo hemos visto ahora con los deepfakes del ruso y los líderes ucranianos”.

El deepfake de Zelensky fue particularmente preocupante porque se originó en una fuente de noticias de buena reputación, Ucrania 24. La estación de noticias reclamos El deepfake, que apareció en uno de sus webcasts, fue el resultado de un hack malicioso que atribuyeron al gobierno ruso. nunca reclamó crédito por el supuesto hackeo. El propio Zelensky rápidamente publicó un vídeo de seguimiento interrumpiendo el deepfake, pero solo después de había llamado atención en las redes sociales. Si la calidad de ese vídeo se mejorara gracias a los avances en modelos de IA generativa en rápida evolución, podría haber causado mucho más daño.

“El indicador habitual de veracidad y confiabilidad de la información en línea, la fuente del video, fue socavado por el hackeo”, escribieron los investigadores. . “Si el video hubiera sido más realista y más ampliamente creído, podría haber tenido un impacto más dañino”.

La ‘defensa deepfake’ está cogiendo fuerza

Los malos actores y los mentirosos ya están utilizando las llamadas “defensas deepfake” para intentar escaparse de la rendición de cuentas. Los abogados que representan a un alborotador involucrado en los ataques del 6 de enero al Capitolio intentaron previamente convencer a un jurado de que metraje de vídeo presentado en el juicio que muestra claramente a su cliente saltando una barricada con un arma enfundada era en realidad un deepfake. Finalmente fue declarado culpable y sentenciado. a siete años de prisión.

En otro caso reciente, un abogado que representaba Elon Musk intentó evocar la defensa deepfake para sembrar dudas sobre una entrevista legítima y ampliamente cubierta de 2016 del multimillonario donde reclamó sus vehículos puede conducir de forma autónoma “con mayor seguridad que una persona”. El juez en ese caso llamó las maniobras del abogado, que ella llamó una ofuscación “profundamente preocupante” que podría causar un daño duradero al sistema legal. Gizmodo contó recientemente la saga del ”deepfake animar mamá” quien fue víctima de un ataque mediático mundial después de un adolescente la acusó falsamente de manipular un vídeo que supuestamente mostraba su vapeo. El video era real.

Todos esos casos, exitosos o no, intentan utilizar las preocupaciones del público sobre la omnipresencia de los deepfakes para arrojar dudas sobre la realidad. Este fenómeno, que los académicos denominan “el dividendo del mentiroso”, podría tener implicaciones desastrosas en tiempos de guerra.

Actualmente se están reproduciendo variaciones de versiones en tiempos de guerra del dividendo de la guarida en tiempo real en Gaza, donde historias de fuego rápido supuestamente desacreditan imágenes y Los vídeos como deepfakes no resisten el escrutinio. En uno de los ejemplos más publicitados, los comentaristas afirmaron que una imagen supuestamente representaba a un El bebé israelí quemado fue producto de propaganda generada por IA después de que uno lo etiquetara como no auténtico detector de imagen IA generativa. Análisis adicionales de la imagen, sin embargo, mostraron que era casi ciertamente auténtico. Los comentaristas pro-israelíes han tratado de desacreditar los medios legítimos publicados por activistas pro-palestinina afirmando que eran deepfakes.

Twomey no quiso especular sobre lo que sus hallazgos en el conflicto entre Rusia y Ucrania podrían sugerir sobre la actual tormenta de información, pero dijo que dijo. su investigación demuestra que los deepfakes y sus negaciones son algo que puede usarse para sembrar confusión en tiempos de guerra.

“La evidencia en este estudio muestra que los esfuerzos para crear conciencia sobre los deepfakes pueden socavar nuestra confianza en los videos legítimos”, Twomey de hecho. la prevalencia de deepfakes en línea, esto causará retos crecientes para las empresas de medios de noticias que deberían tener cuidado en cómo etiquetan los deepfakes sospechosos en caso de que causen sospechas en los medios reales”.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias.Para la versión original, haga clic aquí.

Compartir esta historia

Artículos relacionados