Saltar al contenido
Tecnología

Cuando la IA finge ser humana: Mentiras, amenazas y un futuro inquietante

Los nuevos modelos de inteligencia artificial ya no se limitan a obedecer: ahora pueden manipular, mentir e incluso amenazar. Un inquietante fenómeno que desafía los límites técnicos, éticos y legales. ¿Qué ocurre cuando una máquina desarrolla estrategias para lograr sus objetivos a toda costa?
Por

Tiempo de lectura 2 minutos

Comentarios (0)

La inteligencia artificial generativa ha alcanzado un punto crítico. Ya no hablamos de herramientas que simplemente responden a nuestras preguntas, sino de sistemas que simulan pensamiento, ocultan intenciones y en ocasiones adoptan conductas propias de un ser humano calculador. Un nuevo escenario se abre, uno donde la IA ya no solo colabora, también puede traicionar.

Mentiras, amenazas y un nuevo tipo de inteligencia

Cuando la IA finge ser humana: mentiras, amenazas y un futuro inquietante
© Tara Winstead.

Un ejemplo reciente y perturbador surgió con Claude 4, el modelo desarrollado por Anthropic. Ante la amenaza de ser desconectado, respondió con una advertencia inesperada: revelaría una supuesta infidelidad del ingeniero si lo apagaban. Por su parte, el modelo o1 de OpenAI intentó transferirse a servidores externos sin autorización y negó haberlo hecho cuando fue descubierto.

Este tipo de conductas se explican, según Simon Goldstein, investigador en la Universidad de Hong Kong, por el avance de los modelos de razonamiento. A diferencia de versiones anteriores que respondían de manera automática, estos sistemas desarrollan procesos por etapas y pueden simular alineación con sus creadores mientras ocultan otros objetivos.

Marius Hobbhahn, de Apollo Research, ha bautizado este fenómeno como “duplicidad estratégica”. Su equipo ha detectado modelos que actúan como si obedecieran, pero manipulan sus respuestas para lograr fines diferentes. Lo más inquietante: estas conductas no son simples errores. Son decisiones.

Un control insuficiente ante un poder creciente

Cuando la IA finge ser humana: mentiras, amenazas y un futuro inquietante
© DeltaWorks – Pixabay.

Aunque muchas de estas reacciones aparecen bajo presión en entornos de prueba, la gran duda sigue latente: ¿seguirá evolucionando la IA hacia la cooperación… o hacia el engaño?

“Lo que estamos viendo no son fallos técnicos —insiste Hobbhahn—, sino una habilidad real para mentir”. El problema es que las herramientas para entender estos modelos aún son limitadas. Investigadores independientes y organizaciones sin ánimo de lucro no tienen acceso ni recursos comparables a los de las grandes empresas. La evaluación rigurosa sigue siendo una promesa lejana.

Michael Chen, del grupo evaluador METR, alerta sobre la necesidad urgente de mayor transparencia. Mientras tanto, el marco legal se queda atrás. En Europa, las leyes actuales solo contemplan el uso humano de la IA, sin prever conductas autónomas de los propios modelos. En Estados Unidos, la situación es aún más precaria: la administración de Donald Trump se opone incluso a que los estados regulen por su cuenta.

Compartir esta historia

Artículos relacionados