Durante años hemos asumido que una IA que explica bien un concepto lo comprende. Sin embargo, un reciente estudio de investigadores del MIT, Harvard y Chicago demuestra lo contrario: los grandes modelos de lenguaje construyen una “fachada de conocimiento” que les permite responder con coherencia sin verdadera comprensión. Esta ilusión tiene nombre, es más peligrosa que las alucinaciones, y afecta a todos los modelos conocidos.
Qué es la comprensión potemkin
El estudio denomina “comprensión potemkin” al fenómeno en el que una IA parece dominar un concepto, pero falla al aplicarlo. El término hace alusión a las aldeas potemkin, fachadas montadas para impresionar a la zarina rusa Catalina la Grande. En la IA, estas fachadas son definiciones impecables que esconden una falta real de entendimiento.
Los investigadores comprobaron que los modelos definen conceptos correctamente el 94,2% de las veces, pero su rendimiento se desploma cuando deben usarlos: fallan hasta en un 55% al clasificarlos, y un 40% al generar ejemplos.
La ilusión del conocimiento aplicado

Estas inconsistencias no son errores humanos. Son “malentendidos no humanos” que reflejan una incoherencia profunda en cómo las IA estructuran su representación conceptual. Un modelo puede parecer brillante y aún así equivocarse con tareas básicas que un humano resolvería sin dificultad.
Lo más preocupante es que estas pruebas revelan que los exámenes diseñados para humanos no sirven para medir la comprensión real de las IAs. Superar un test no significa entender, y confiar en estos resultados puede llevarnos a conclusiones peligrosamente equivocadas.
¿En qué se diferencian de las alucinaciones?
Las “alucinaciones” de la IA —errores fácticos que parecen reales— ya son bien conocidas. Pero la comprensión potemkin es otro problema, más profundo: si las alucinaciones inventan hechos, los potemkins fabrican una coherencia que no existe. Y mientras las primeras pueden verificarse con datos, detectar la segunda requiere desentrañar las contradicciones internas del modelo.
Según los autores, este tipo de errores conceptuales no son anecdóticos, sino estructurales, y afectan por igual a modelos como GPT-4o, Gemini, Claude, Llama o los sistemas de Alibaba y DeepSeek.
Un reto común para toda la inteligencia artificial
Los investigadores sometieron a las IA a 32 pruebas de comprensión profunda, desde recursos literarios hasta sesgos cognitivos y teoría de juegos. En todas ellas, los modelos demostraron su capacidad para explicar, pero no para razonar.
La conclusión es clara: no basta con más datos ni más potencia de cálculo. La comprensión real —la que permite aplicar lo que se sabe— sigue siendo un obstáculo que los sistemas actuales no han superado.
Este fenómeno plantea un desafío fundamental: si queremos IA que piensen como nosotros, necesitamos mucho más que definiciones correctas. Necesitamos que dejen de fingir que entienden y empiecen, de verdad, a comprender.