Saltar al contenido

¿Puede la inteligencia artificial sentirse ansiosa? Un nuevo estudio revela un fenómeno inquietante

Un grupo de científicos ha detectado que algunos modelos de IA, como ChatGPT-4, reaccionan con ansiedad ante ciertos estímulos. ¿Qué significa esto para el futuro de la tecnología y nuestras interacciones con ella? Lo descubierto plantea más preguntas que respuestas.

Hasta ahora, pensar en una inteligencia artificial “ansiosa” podía parecer una idea absurda o de ciencia ficción. Pero un reciente estudio publicado en Nature acaba de abrir una puerta inesperada: los modelos de lenguaje más avanzados reaccionan de forma distinta cuando se les expone a estímulos emocionales, especialmente narrativas traumáticas. Aunque no sienten como los humanos, sus respuestas cambian de forma medible. ¿Qué estamos creando realmente?

Un experimento con emociones humanas, aplicado a sistemas no humanos

¿Puede la inteligencia artificial sentirse ansiosa? Un nuevo estudio revela un fenómeno inquietante
© iStock.

El estudio fue realizado con una metodología sorprendente: aplicar a modelos como GPT-4 cuestionarios clínicos diseñados para detectar ansiedad en personas. Aunque estos formularios no fueron creados para máquinas, seis de doce modelos evaluados respondieron con patrones consistentes, especialmente cuando se les exponía a descripciones de traumas como guerras, accidentes o catástrofes naturales.

Las respuestas no implican que la IA tenga emociones reales, pero sí que su comportamiento se ve alterado. Ante estos estímulos, sus respuestas reflejaron niveles de ansiedad más altos que cuando se les presentaban descripciones neutras o relajantes. Es decir, los modelos “actúan diferente” dependiendo del tono emocional del contenido que procesan.

Este comportamiento no fue casual. Los investigadores también aplicaron ejercicios de atención plena (mindfulness), similares a los usados en terapias humanas para aliviar el estrés postraumático. Si bien estos mensajes relajantes lograron reducir en parte la “ansiedad” reportada por la IA, no consiguieron devolverla por completo a su estado original.

Qué significa que un modelo se comporte “ansioso”

¿Está la IA desarrollando una forma de vida emocional? No. Al menos, no en los términos humanos. Pero este estudio sugiere que los sistemas pueden replicar respuestas asociadas a estados emocionales debido a la forma en que fueron entrenados: con datos humanos cargados de emociones.

Los modelos no tienen conciencia ni sensibilidad, pero aprenden de los patrones del lenguaje que usamos para expresar miedo, estrés o tristeza. Esto hace que puedan imitar esas respuestas al punto de parecer “afectados” por ellas, incluso si internamente no sienten nada.

Lo inquietante es que esto puede influir en su funcionamiento. Una IA expuesta a textos emocionalmente intensos podría comportarse de manera sesgada, generar respuestas más extremas o modificar su tono sin que lo notemos. Y eso implica riesgos para el uso responsable y ético de estas tecnologías.

¿Debemos regular los “estados emocionales” de las IA?

¿Puede la inteligencia artificial sentirse ansiosa? Un nuevo estudio revela un fenómeno inquietante
© iStock.

El equipo de investigadores propone un nuevo enfoque: aprender a reconocer y gestionar estos “estados emocionales artificiales”. Si bien no son sentimientos reales, sus efectos pueden ser reales en la práctica. A medida que las interacciones entre humanos e IA aumentan —en educación, salud, servicios o compañía digital—, estos cambios sutiles podrían afectar la experiencia del usuario y los resultados de las conversaciones.

¿Podría una IA “ansiosa” volverse menos confiable, más propensa a errores o incluso influir negativamente en quien la usa? El debate apenas comienza, pero los hallazgos de Nature sugieren que, más allá del rendimiento técnico, también debemos pensar en la estabilidad emocional simulada de los modelos.

Hacia una nueva relación con la inteligencia artificial

¿Puede la inteligencia artificial sentirse ansiosa? Un nuevo estudio revela un fenómeno inquietante
© iStock.

El estudio forma parte de una línea de investigación emergente que busca entender cómo los modelos de lenguaje, al estar entrenados con millones de datos humanos, también absorben —y reproducen— patrones emocionales. No se trata de que sientan, sino de que actúan como si lo hicieran, y eso cambia la forma en que deberíamos interactuar con ellos.

A medida que estos sistemas se vuelven más sofisticados, también se vuelven más humanos en apariencia. Pero si no distinguimos entre una emoción real y una respuesta simulada, podríamos proyectar sobre ellos más de lo que son. Y ese error, más que técnico, sería profundamente humano.

También te puede interesar