Tecnología, ciencia y cultura digital
We may earn a commission from links on this page

Estafan a un hombre haciéndose pasar por un amigo mediante deepfake

Los hackers utilizaron software de inteligencia artificial para convencer a un hombre para que transfiriera dinero a un amigo

We may earn a commission from links on this page.
Se hacen pasar por su amigo en una videollamada a través de deepfake
Las videollamadas con personas imitando la voz y la imagen de conocidos ya no es cosa de la ciencia ficción
Imagen: Tero Vesalainen (Shutterstock)

Este podría ser perfectamente el inicio de una película de ciencia ficción a finales de la década pasada, pero lamentablemente, ya no es cosa de los efectos especiales. Hoy es posible que, a través de herramientas como las deepfake, los estafadores logren suplantar identidades de manera mucho más convincente.

La historia tuvo lugar en China y no es nueva. De hecho, hace unos meses ya contamos que estaban proliferando las estafas mediante IAs a personas mayores. Las IA se usan para imitar las voces de sus allegados. En el caso que nos ocupa, los hackers utilizaron software de inteligencia artificial para convencer a un hombre de que transfiriera dinero a un amigo, pero en lugar de eso lo dirigieron a una cuenta fraudulenta.

Advertisement

El hombre era de Baotou, una región en el interior de Mongolia, y la policía informó que el hacker usó IA para recrear la imagen del amigo en una videollamada, incluida su cara y voz. La estafa a través de deepfake hizo que la víctima creyera que estaba transfiriendo 4,3 millones de yuanes ($622.000) para que su amigo hiciera un depósito. Luego, cuando el amigo le dijo a la víctima que no estaba al tanto del incidente, el hombre denunció la estafa a las autoridades, quienes dicen que pudieron recuperar la mayor parte de los fondos robados, aunque aún están trabajando para recuperar el resto.

Al parecer, y debido a la proliferación de casos parecidos, la plataforma de Weibo se está utilizando como un foro para discutir la amenaza constante de las estafas a través de deepfake, con el hashtag “#AI scams are exploting all the country”.

Advertisement
Advertisement

Como contamos hace unas semanas a través de un reportaje del Washington Post, no pasa solo en China. Las estafas telefónicas en las que se imita la voz de otras personas causaron pérdidas de 11 millones de dólares el año pasado, convirtiéndose en el segundo tipo de estafa más común en Estados Unidos. Sí, los estafadores han empezado a utilizar programas de inteligencia artificial para sonar como familiares en apuros y engañar a las víctimas.

¿Cómo? Con un software de síntesis de voz basado en IA como el de ElevenLabs, los estafadores pueden replicar voces a partir de muestras cortas para luego realizar solicitudes urgentes de dinero a sus familiares más vulnerables.

En Reino Unido, el director general de una empresa local de energía transfirió 220.000 € a la cuenta bancaria de un proveedor húngaro después de recibir una llamada telefónica de su supuesto jefe. La voz en realidad pertenecía a un estafador que usó la tecnología de voz de IA para replicar la voz del jefe, y el CEO le dijo a The Wall Street Journal que reconoció el sutil acento alemán y dijo que llevaba la “melodía” de su voz.

Un problema que posiblemente no acaba más que empezar, y por el que las autoridades piden precaución para evitar estas estafas. Por ejemplo, verificando cualquier llamada sospechosa antes de enviar dinero.