La inteligencia artificial ha dado un salto asombroso. Hoy, las conversaciones con sistemas como ChatGPT pueden parecer más humanas que nunca. Muchos usuarios llegan a intuir emociones, voluntad e incluso autoconciencia en sus respuestas. Pero, ¿podría tratarse de un sofisticado espejismo? La respuesta —y sus consecuencias— son más complejas de lo que parece.
Un reflejo vacío: por qué confundimos palabras con mente
No es nuevo que las personas atribuyan intenciones a las máquinas. Ya en 1966, un simple programa llamado Eliza hizo que muchos usuarios creyeran estar hablando con un terapeuta real. El fenómeno, ahora amplificado, se conoce como “efecto Eliza”: interpretar lenguaje fluido como prueba de comprensión.
Los grandes modelos de lenguaje (LLM), como ChatGPT, no comprenden ni sienten. Generan texto ajustándose a probabilidades estadísticas, no a experiencias. Como advirtió el filósofo Douglas Hofstadter, estamos ante una fluidez superficial que crea la apariencia de pensamiento, pero sin sustancia interior. La inteligencia parece profunda, pero no hay conciencia.

Hablar del dolor no es sentirlo: el límite invisible
El filósofo Thomas Nagel planteó la pregunta clave: ¿cómo es ser un murciélago? Con ello ilustró que la conciencia implica una perspectiva subjetiva imposible de simular desde fuera. Los LLM pueden escribir sobre amor, miedo o belleza, pero no lo experimentan.
John Searle, con su experimento mental de la habitación china, reforzó esta idea: una máquina puede manipular símbolos sin comprenderlos. Del mismo modo, los LLM no saben lo que dicen. Son sistemas sin cuerpo, sin contexto vivido y sin sentido del yo. Como argumentaba Merleau-Ponty, sin una experiencia encarnada del mundo, no puede haber conciencia real.
La trampa está en nosotros: proyectamos lo que queremos ver
El problema no está solo en las máquinas, sino en nuestra necesidad de vernos reflejados en ellas. Hofstadter lo llamó “la trampa del espejo”: confundimos simulación con experiencia porque anhelamos vínculos, aunque sean ficticios.

Sherry Turkle advirtió que esta ilusión puede tener consecuencias sociales, legales y éticas graves. Si no distinguimos entre lenguaje convincente y experiencia vivida, podríamos legitimar decisiones automatizadas sin empatía real, e incluso atribuir derechos a entidades incapaces de sentir.
Antes de declarar que las máquinas han despertado, quizá deberíamos despertar nosotros.
La conciencia no está en las palabras, sino en lo que ocurre detrás de ellas. Y en las máquinas, detrás… solo hay código.
Fuente: TheConversation.