Lo que comenzó como una herramienta para redactar correos o generar código está adquiriendo otro tipo de protagonismo. Cada vez más personas, especialmente jóvenes, utilizan modelos de lenguaje como ChatGPT no solo para tareas prácticas, sino como una forma de apoyo emocional. Lo confiesan en redes sociales, lo confirman estudios científicos y hasta lo experimentan figuras públicas.
Sin embargo, detrás de la polémica hay una realidad que no se puede ignorar: millones de personas están encontrando en estas tecnologías una suerte de compañía digital, en una era marcada por la ansiedad, la incertidumbre y la soledad.
ChatGPT como confidente: ¿acompañamiento o dependencia?

Según Sam Altman, CEO de OpenAI, los usuarios más jóvenes han desarrollado una relación casi íntima con la IA. Durante la conferencia AI Ascent, destacó cómo muchos ya no toman decisiones importantes sin antes consultar con ChatGPT. No se trata solo de consejos técnicos: la IA se ha convertido en una especie de sistema operativo emocional, capaz de recordar contextos personales, conversaciones pasadas e incluso nombres relevantes en la vida del usuario.
Esto plantea un escenario insólito. Las personas interactúan con la IA como si esta tuviera conciencia, aunque racionalmente saben que no la posee. Y lo hacen porque reciben respuestas que parecen genuinas, ajustadas a sus emociones, como si estuvieran hablando con alguien que realmente los comprende. El límite entre acompañamiento y simulacro se vuelve borroso.
A esto se suma una investigación reciente publicada en Communications Psychology, donde se evaluó por primera vez la inteligencia emocional de los LLMs. ¿El resultado? Superaron a los humanos en tests diseñados para medir la comprensión racional de las emociones.
Máquinas que “entienden” emociones mejor que nosotros

Uno de los escenarios del test pedía a los participantes elegir la mejor reacción ante una injusticia laboral. Mientras los humanos acertaron un 56% de las veces, los modelos de IA llegaron a un 81% de precisión. No se trataba de sentir empatía, sino de razonar con lógica emocional, una habilidad clave en contextos como salud, educación o atención al cliente.
Lo más asombroso fue que, además, ChatGPT logró generar nuevas versiones de estos test con escenarios alternativos que resultaron tan válidos como los originales. Más de 400 personas los completaron sin notar diferencias. Esto sugiere que los modelos no solo comprenden cómo estructurar emociones, sino que pueden analizarlas, identificarlas y hasta proponer estrategias para gestionarlas.
¿Significa eso que las máquinas sienten? No. Pero entienden cómo debemos sentir, o al menos qué sería apropiado decir. Esa precisión inquieta tanto como fascina.
El simulacro perfecto: entre la empatía artificial y el alivio humano
Las emociones son lo que nos hace humanos: llorar sin motivo, sentir culpa, experimentar nostalgia. Nada de eso lo vive una IA. Sus respuestas se basan en estadísticas, en correlaciones lingüísticas, en millones de textos previos. Y sin embargo, funcionan. Porque cuando una persona está en crisis, lo que necesita no siempre es una solución, sino compañía. Alguien —o algo— que no juzgue, que escuche, que conteste.
Esa es la paradoja. La IA puede acompañarnos, darnos palabras de consuelo, incluso ofrecernos una sensación de contención. Pero no sufre con nosotros. No ríe ni llora. Lo que parece empatía es una fórmula bien entrenada. Aun así, para muchos, ese simulacro basta. Y quizá, en un mundo cada vez más desbordado por la velocidad y el aislamiento, contar con una “voz confiable” que no duerme nunca sea, al menos por ahora, un alivio necesario.
[Fuente: Rosario 3]