Los estafadores podrían utilizar secuestros falsos con IA para atormentar a las personas

Los avances en rápida evolución en los modelos generativos de IA capaces de imitar voces podrían conducir a un nuevo género de estafas particularmente horribles: los secuestros falsos con IA. Los estafadores y extorsionadores, advierte el informe, pueden usar versiones generadas por IA de la voz de un ser querido para que parezca que están en angustia y pedir rescate.
Esta amenaza en particular no es hipotética. A principios de este año, una madre de Arizona llamada Jennifer DeStefano se sentó ante una audiencia en el Senado y contó de manera escalofriante detalle cómo un estafador que busca ganar dinero rápido usó un clon deepfake de la voz de su hija adolescente para que pareciera como si fue secuestrada y en peligro.
“Mamá, metí la pata”, supuestamente dijo la voz deepfake entre llantos. “Mamá, estos hombres malos me tienen, ayúdame, ayúdenme”. Ataques como estos, advierte el informe, podrían volverse aún más comunes a medida que la tecnología evoluciona y la calidad del audio Los clones mejoran.