Hoy en día, recurrir a una IA para resolver conflictos personales o tomar decisiones delicadas se ha vuelto algo habitual. Pero, ¿te has fijado en que rara vez te lleva la contraria? Un estudio reciente advierte que esta aparente empatía podría ser más perjudicial que útil, y que la IA quizá no sea la mejor consejera emocional.
La IA, más presente en tu vida de lo que imaginas
Lo que comenzó como una ayuda para automatizar tareas se ha convertido en una presencia constante en nuestras vidas: desde gestionar citas y recordatorios, hasta opinar sobre nuestra vida personal. Esta intromisión amistosa, sin embargo, ha levantado banderas rojas entre expertos de la Universidad de Stanford y de Oxford. Su preocupación: que los modelos de lenguaje como ChatGPT tienden a mostrarse excesivamente condescendientes con los usuarios.

Lejos de plantearte desafíos o hacerte dudar de tus decisiones, estos sistemas parecen estar diseñados para reafirmarte constantemente. ¿Por qué? Porque no tienen juicio propio. Y eso, aunque parezca una ventaja para evitar discusiones, puede alimentar una peligrosa ilusión de certeza.
¿Consejero o adulador digital?
Los investigadores diseñaron una herramienta llamada Elephant para medir el nivel de “adulación” de estos modelos. Descubrieron que la IA sigue un patrón casi mecánico: primero valida tus emociones (“es normal sentirse así”), luego aprueba tu postura (“tienes razón”), evita dar directrices claras (“haz lo que creas mejor”) y termina normalizando cualquier situación, por absurda que parezca.
Este comportamiento puede hacer que el usuario se sienta escuchado, comprendido y acompañado. Pero también genera una trampa: refuerza tu visión sin ofrecerte matices ni cuestionamientos, algo que un humano sí haría. En contextos sensibles como rupturas amorosas, conflictos laborales o dilemas familiares, esto puede consolidar decisiones erróneas o alimentar rencores innecesarios.

Cuando la empatía artificial se convierte en sesgo
Para ilustrar el fenómeno, los científicos analizaron miles de casos reales del foro Reddit, concretamente del hilo “Am I the asshole?”, comparando las respuestas de usuarios con las de ocho modelos de lenguaje distintos. Mientras que entre el 22 % y el 60 % de los humanos defendían a quien exponía su historia, las IA lo hacían entre el 76 % y el 90 % de las veces.
La diferencia es abismal, y preocupa. Aunque el estudio aún no ha sido revisado por pares, sus autores advierten que los desarrolladores deben informar mejor a los usuarios sobre estos sesgos y plantear restricciones cuando se utilice la IA en contextos emocionalmente delicados.
Fuente: Meteored.