
Es posible que las empresas que contraten a sus empleados para trabajar en remoto tengan que analizar mejor a sus posibles candidatos más allá de la típica pregunta de “¿cuál es tu peor cualidad?” Si el aspirante estornuda o tose sin mover los labios, podría incluso no ser real.
El FBI alertó este martes de que cada vez recibe casos de personas que utilizan información robada y vídeos y voz falsos para postularse a trabajos tecnológicos en remoto.
Según el anuncio del FBI, cada vez más empresas se han encontrado con personas que solicitan empleos utilizando vídeos, imágenes o grabaciones manipuladas que les permiten parecer otro individuo. Esta gente también está utilizando información personal de otras personas (cuya identidad ha sido robada) para solicitar puestos de trabajo en empresas de IT, programación, bases de datos y software. El informe señaló que muchos de estos puestos vacantes tenían acceso a datos confidenciales de clientes o empleados, así como a información financiera y sensible de la empresa, lo que implica que los impostores buscaban robar información confidencial o cobrar dinero y luego escapar sin dejar rastro.
Lo que no está del todo claro es cuántos de estos intentos tuvieron éxito. Aparentemente, estas personas usaban técnicas de suplantación de voz durante las entrevistas online, pero el movimiento de los labios no coincidía con lo que decía el entrevistado, según explica el anuncio del FBI. Aparentemente, en algunos de estos casos, el truco quedaba a la vista cuando el entrevistado tosía o estornudaba.
El FBI y otras agencias de inteligencia alertaron recientemente a las empresas de que existían agentes de Corea del Norte que estaban solicitando puestos de trabajo remotos en empresas de informática. En estos casos, los falsos trabajadores utilizaban documentación y referencias falsas. En este tipo de situaciones, también habían creado varias compañías ficticias, lo que hizo mucho más difícil discernir su identidad.
Aunque la tecnología de los deepfakes todavía tiene margen de mejora, hemos visto ya intentos profesionales capaces de engañar a cualquiera y hacer que un ser humano digital parezca completamente real.
Y no es tan fácil detectar un vídeo falso como podría parecer, sobre todo si no te planteas que puedes estar delante de uno. Existen métodos para que los humanos puedan detectar vídeos falsos, sobre todo una vez que han sido entrenados para detectar ciertas pistas visuales, como el comportamiento de las sombras o ciertas texturas específicas de la piel. Pero una cosa es segura: los deepfakes ya son un problema del presente, no del futuro, y tendremos que saber cómo abordarlo.